Search (79 results, page 1 of 4)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Semantische Interoperabilität"
  1. Jahns, Y.: 20 years SWD : German subject authority data prepared for the future (2011) 0.04
    0.03586138 = product of:
      0.08965345 = sum of:
        0.01965462 = weight(_text_:den in 1802) [ClassicSimilarity], result of:
          0.01965462 = score(doc=1802,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.19000389 = fieldWeight in 1802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1802)
        0.06999883 = weight(_text_:schlagwortkatalog in 1802) [ClassicSimilarity], result of:
          0.06999883 = score(doc=1802,freq=2.0), product of:
            0.19521591 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.036090754 = queryNorm
            0.35857132 = fieldWeight in 1802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=1802)
      0.4 = coord(2/5)
    
    Theme
    Regeln für den Schlagwortkatalog (RSWK)
  2. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.03
    0.032605585 = product of:
      0.08151396 = sum of:
        0.034042798 = weight(_text_:den in 4408) [ClassicSimilarity], result of:
          0.034042798 = score(doc=4408,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.32909638 = fieldWeight in 4408, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.047471166 = product of:
          0.07120675 = sum of:
            0.041867953 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.041867953 = score(doc=4408,freq=4.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.029338794 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.029338794 = score(doc=4408,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  3. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.03
    0.03257617 = product of:
      0.08144042 = sum of:
        0.034042798 = weight(_text_:den in 4379) [ClassicSimilarity], result of:
          0.034042798 = score(doc=4379,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.32909638 = fieldWeight in 4379, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.047397625 = product of:
          0.071096435 = sum of:
            0.029605111 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
              0.029605111 = score(doc=4379,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
            0.041491326 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.041491326 = score(doc=4379,freq=4.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  4. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.03
    0.02933483 = product of:
      0.04889138 = sum of:
        0.012800777 = product of:
          0.03840233 = sum of:
            0.03840233 = weight(_text_:f in 4285) [ClassicSimilarity], result of:
              0.03840233 = score(doc=4285,freq=6.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.26696092 = fieldWeight in 4285, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.33333334 = coord(1/3)
        0.030334054 = weight(_text_:den in 4285) [ClassicSimilarity], result of:
          0.030334054 = score(doc=4285,freq=14.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.29324344 = fieldWeight in 4285, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.005756549 = product of:
          0.017269647 = sum of:
            0.017269647 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.017269647 = score(doc=4285,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
    Pages
    29 S
  5. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.02
    0.019671043 = product of:
      0.04917761 = sum of:
        0.03930924 = weight(_text_:den in 4292) [ClassicSimilarity], result of:
          0.03930924 = score(doc=4292,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38000777 = fieldWeight in 4292, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.00986837 = product of:
          0.029605111 = sum of:
            0.029605111 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.029605111 = score(doc=4292,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
  6. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.02
    0.01506568 = product of:
      0.0376642 = sum of:
        0.02779583 = weight(_text_:den in 2782) [ClassicSimilarity], result of:
          0.02779583 = score(doc=2782,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 2782, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.00986837 = product of:
          0.029605111 = sum of:
            0.029605111 = weight(_text_:29 in 2782) [ClassicSimilarity], result of:
              0.029605111 = score(doc=2782,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 2782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2782)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Date
    29. 3.2013 17:46:08
  7. Celli, F. et al.: Enabling multilingual search through controlled vocabularies : the AGRIS approach (2016) 0.01
    0.014966056 = product of:
      0.03741514 = sum of:
        0.021115808 = product of:
          0.06334742 = sum of:
            0.06334742 = weight(_text_:f in 3278) [ClassicSimilarity], result of:
              0.06334742 = score(doc=3278,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.4403713 = fieldWeight in 3278, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3278)
          0.33333334 = coord(1/3)
        0.016299332 = product of:
          0.048897993 = sum of:
            0.048897993 = weight(_text_:22 in 3278) [ClassicSimilarity], result of:
              0.048897993 = score(doc=3278,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.38690117 = fieldWeight in 3278, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3278)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  8. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.01
    0.013735968 = product of:
      0.03433992 = sum of:
        0.02293039 = weight(_text_:den in 3730) [ClassicSimilarity], result of:
          0.02293039 = score(doc=3730,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 3730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.011409531 = product of:
          0.034228593 = sum of:
            0.034228593 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.034228593 = score(doc=3730,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  9. Siwecka, D.: Knowledge organization systems used in European national libraries towards interoperability of the semantic Web (2018) 0.01
    0.012020189 = product of:
      0.030050473 = sum of:
        0.016892646 = product of:
          0.050677933 = sum of:
            0.050677933 = weight(_text_:f in 4815) [ClassicSimilarity], result of:
              0.050677933 = score(doc=4815,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.35229704 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
          0.33333334 = coord(1/3)
        0.013157828 = product of:
          0.03947348 = sum of:
            0.03947348 = weight(_text_:29 in 4815) [ClassicSimilarity], result of:
              0.03947348 = score(doc=4815,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    18. 1.2019 18:46:29
    Source
    Challenges and opportunities for knowledge organization in the digital age: proceedings of the Fifteenth International ISKO Conference, 9-11 July 2018, Porto, Portugal / organized by: International Society for Knowledge Organization (ISKO), ISKO Spain and Portugal Chapter, University of Porto - Faculty of Arts and Humanities, Research Centre in Communication, Information and Digital Culture (CIC.digital) - Porto. Eds.: F. Ribeiro u. M.E. Cerveira
  10. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.01
    0.011773688 = product of:
      0.029434219 = sum of:
        0.01965462 = weight(_text_:den in 1021) [ClassicSimilarity], result of:
          0.01965462 = score(doc=1021,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.19000389 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.009779599 = product of:
          0.029338794 = sum of:
            0.029338794 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.029338794 = score(doc=1021,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
  11. Jahns, Y.: Sacherschließung - zeitgemäß und zukunftsfähig (2010) 0.01
    0.009265277 = product of:
      0.04632638 = sum of:
        0.04632638 = weight(_text_:den in 3278) [ClassicSimilarity], result of:
          0.04632638 = score(doc=3278,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.44784343 = fieldWeight in 3278, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
      0.2 = coord(1/5)
    
    Abstract
    Berichtsartikel zu den Vorträgen des Bibliothekskongresses 2010 in Leipzig.
    Footnote
    Vgl. zu den Vorträgen: www.opus-bayern.de/bib-info.
  12. Concepts in Context : Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010 (2011) 0.01
    0.009232319 = product of:
      0.023080796 = sum of:
        0.01493113 = product of:
          0.04479339 = sum of:
            0.04479339 = weight(_text_:f in 628) [ClassicSimilarity], result of:
              0.04479339 = score(doc=628,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31138954 = fieldWeight in 628, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=628)
          0.33333334 = coord(1/3)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 628) [ClassicSimilarity], result of:
              0.024448996 = score(doc=628,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=628)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    22. 2.2013 11:34:18
    Editor
    Boteram, F.
    Footnote
    Rez. in: ZfBB 59(2012) H.2, S.119-120 (F. Förster); KO 39(2012) no.6, S.461-463 (I. Dahlberg)
  13. Amarger, F.; Chanet, J.-P.; Haemmerlé, O.; Hernandez, N.; Roussey, C.: SKOS sources transformations for ontology engineering : agronomical taxonomy use case (2014) 0.01
    0.009015142 = product of:
      0.022537854 = sum of:
        0.012669483 = product of:
          0.038008448 = sum of:
            0.038008448 = weight(_text_:f in 1593) [ClassicSimilarity], result of:
              0.038008448 = score(doc=1593,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.26422277 = fieldWeight in 1593, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1593)
          0.33333334 = coord(1/3)
        0.00986837 = product of:
          0.029605111 = sum of:
            0.029605111 = weight(_text_:29 in 1593) [ClassicSimilarity], result of:
              0.029605111 = score(doc=1593,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 1593, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1593)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Source
    Metadata and semantics research: 8th Research Conference, MTSR 2014, Karlsruhe, Germany, November 27-29, 2014, Proceedings. Eds.: S. Closs et al
  14. Boteram, F.; Hubrich, J.: Specifying intersystem relations : requirements, strategies, and issues (2010) 0.01
    0.0089796325 = product of:
      0.022449082 = sum of:
        0.012669483 = product of:
          0.038008448 = sum of:
            0.038008448 = weight(_text_:f in 3691) [ClassicSimilarity], result of:
              0.038008448 = score(doc=3691,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.26422277 = fieldWeight in 3691, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3691)
          0.33333334 = coord(1/3)
        0.009779599 = product of:
          0.029338794 = sum of:
            0.029338794 = weight(_text_:22 in 3691) [ClassicSimilarity], result of:
              0.029338794 = score(doc=3691,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 3691, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3691)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    22. 7.2010 17:11:51
  15. Hinrichs, I.; Milmeister, G.; Schäuble, P.; Steenweg, H.: Computerunterstützte Sacherschließung mit dem Digitalen Assistenten (DA-2) (2016) 0.01
    0.006485694 = product of:
      0.03242847 = sum of:
        0.03242847 = weight(_text_:den in 3563) [ClassicSimilarity], result of:
          0.03242847 = score(doc=3563,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31349042 = fieldWeight in 3563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3563)
      0.2 = coord(1/5)
    
    Abstract
    Wir beschreiben den Digitalen Assistenten DA-2, den wir zur Unterstützung der Sacherschliessung im IBS-Verbund implementiert haben. Diese webbasierte Anwendung ist eine vollständige Neuimplementierung, welche die Erkenntnisse des Vorgängersystems bei der Zentralbibliothek Zürich berücksichtigt. Wir stellen Überlegungen zur Zukunft der Sacherschliessung an und geben eine Übersicht über Projekte mit ähnlichen Zielsetzungen, die Sacherschließung mit Computerunterstützung effizienter und besser zu gestalten.
  16. ISO 25964-2: Der Standard für die Interoperabilität von Thesauri (2013) 0.01
    0.006066811 = product of:
      0.030334054 = sum of:
        0.030334054 = weight(_text_:den in 772) [ClassicSimilarity], result of:
          0.030334054 = score(doc=772,freq=14.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.29324344 = fieldWeight in 772, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=772)
      0.2 = coord(1/5)
    
    Abstract
    Anfang März 2013 veröffentlicht, behandelt ISO 25964-2 die Interoperabilität zwischen Thesauri und anderen Vokabularien. Es geht dabei hauptsächlich um die theoretischen Grundlagen und die praktische Durchführung von Thesaurusföderationen. Zu den behandelten Vokabulartypen zählen Klassifikationen, Aktenpläne für die Schriftgutverwaltung, Taxonomien, Schlagwortlisten, Normdateien für Individualnamen, Ontologien, Terminologiedatenbanken und Synonymringe.
    Content
    "Interoperabilität bedeutet, dass zwei oder mehrere Systeme oder Systemkomponenten Informationen austauschen und nutzen können. Diese Fähigkeit ist von grundsätzlicher Bedeutung für Informationsnetzwerke, auf die wir alle angewiesen sind, und mehr noch für die Entwicklung des Semantischen Web. Bei Thesauri gibt es zwei Ebenen der Interoperabilität: 1. Erstellung des Thesaurus in einer standardisierten Form, um den Import und die Nutzung des Thesaurus in anderen Systemen zu gewährleisten (dies wurde in ISO 25964-1 behandelt und 2011 publiziert). 2. Ergänzende Nutzung von weiteren Vokabularien und zwar durch die Erstellung von Mappings zwischen den Begriffen eines Thesaurus und denen eines anderen Vokabulars (Thema von ISO 25964-2). Nur wenn Mappings mit der empfohlenen Sorgfalt von ISO 25964-2 durchgeführt werden, kann sichergestellt werden, dass die auf ihnen basierenden Verknüpfungen im Semantic Web den nichtsahnenden Netzsurfer nicht zu irreführenden Ergebnissen führen.
    Der vollständige Titel von Teil 2 lautet "Information and documentation - Thesauri and interoperability with other vocabularies - Teil 2: Interoperability with other vocabularies". Wichtige Themen, die der Standard behandelt, sind Strukturmodelle für das Mapping, Richtlinien für Mappingtypen und der Umgang mit Präkombination, die besonders bei Klassifikationen, Taxonomien und Schlagwortsystemen vorkommt. Das primäre Augenmerk von ISO 25964 gilt den Thesauri, und mit Ausnahme von Terminologien existieren keine vergleichbaren Standards für die anderen Vokabulartypen. Statt zu versuchen, diese normativ darzustellen, behandelt Teil 2 ausschließlich die Interoperabilität zwischen ihnen und den Thesauri. Die Kapitel für die einzelnen Vokabulartypen decken jeweils folgende Sachverhalte ab: - Schlüsseleigenschaften des Vokabulars (deskriptiv, nicht normativ) - Semantische Komponenten/Beziehungen (deskriptiv, nicht normativ) Sofern anwendbar, Empfehlungen für das Mapping zwischen Vokabular und Thesaurus (normativ).
    Im Fall von Ontologien, Terminologien und Synonymringen ist das Mapping in oder aus einem Thesaurus nicht immer nützlich. Hier sind andere Formen sich gegenseitig befruchtender Nutzung zu empfehlen. Dies gilt besonders für Ontologien, die im Kontext des Semantischen Web kombiniert mit Thesauri eingesetzt werden können. ISO 25964-2 zeigt die Unterschiede zwischen Thesauri und Ontologien auf und gibt Beispiele für die Möglichkeiten interoperabler Funktionen. Praktische Implementation und weiterführende Arbeiten Und was bedeutet dies für SKOS, dem W3C-Standard für die Veröffentlichung von Simple Knowledge Organization Systems im Web? Die Arbeitsgruppen von SKOS und ISO 25964 haben glücklicherweise eng zusammengearbeitet, was sich in einer guten Kompatibilität der beiden Standards äußert. Gemeinsam haben sie eine Tabelle erarbeitet, die die Übereinstimmungen zwischen den Datenmodellen von ISO 25964 und SKOS/SKOS-XL aufzeigt und nun beim ISO 25964-Sekretariat unter http://www.niso.org/schemas/iso25964/frei zugänglich ist. Die Tabelle ist formal kein Bestandteil der beiden Standards, aber von beiden abhängig. Das macht sie zu einem Beispiel für die Entwicklung praktischer Tools für das sich erweiternde Semantische Web durch die Gemeinschaft seiner Nutzer."
  17. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 4321) [ClassicSimilarity], result of:
          0.028369 = score(doc=4321,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 4321, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.2 = coord(1/5)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
  18. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 29) [ClassicSimilarity], result of:
          0.028369 = score(doc=29,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 29, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
      0.2 = coord(1/5)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
  19. Dolud, L.; Kreis, C: ¬Die Crosskonkordanz Wirtschaft zwischen dem STW und der GND (2012) 0.01
    0.0055591664 = product of:
      0.02779583 = sum of:
        0.02779583 = weight(_text_:den in 1716) [ClassicSimilarity], result of:
          0.02779583 = score(doc=1716,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 1716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
      0.2 = coord(1/5)
    
    Abstract
    Bibliotheken erarbeiten mit öffentlichen Mitteln unter hohem zeitlichem, personellem und finanziellem Aufwand wertvolle und nützliche Datenbestände. Was liegt im Sinne eines effizienten Ressourceneinsatzes näher, als solche Daten einer kooperativen Nutzung zuzuführen? Diese Frage mündete in den Jahren 2002 bis 2004 in einem DFG-finanzierten Projekt, an dem seinerzeit die Deutsche Bibliothek, das Hamburger Weltwirtschaftsarchiv, die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel (heute ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft), der Gemeinsame Bibliotheksverbund und die Universitäts- und Stadtbibliothek Köln beteiligt waren. Ziel war es, den normierten Wortschatz des STW (Standard-Thesaurus Wirtschaft) mit dem wirtschaftswissenschaftlichen Teil der damaligen Schlagwortnormdatei (SWD) zu relationieren. Die Crosskonkordanz STW-GND bzw. Crosskonkordanz Wirtschaft wird mittlerweile durch die DNB und die ZBW in gemeinsamer Verantwortung weiterentwickelt und laufend gepflegt. Dabei han-delt es sich vor allem um die Anpassung der Crosskonkordanz nach redaktionellen Änderungen durch kontinuierliche Einarbeitung neuer bzw. geänderter oder gelöschter Deskriptoren.
  20. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.01
    0.0055591664 = product of:
      0.02779583 = sum of:
        0.02779583 = weight(_text_:den in 3732) [ClassicSimilarity], result of:
          0.02779583 = score(doc=3732,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 3732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
      0.2 = coord(1/5)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.

Languages

  • e 47
  • d 31

Types

  • a 60
  • el 11
  • m 8
  • r 5
  • s 5
  • x 2
  • More… Less…