Search (166 results, page 2 of 9)

  • × theme_ss:"Semantische Interoperabilität"
  • × type_ss:"a"
  1. Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 1: Interoperabilität als Weg zur Wissensexploration (2010) 0.01
    0.0055257133 = product of:
      0.042363804 = sum of:
        0.020021284 = weight(_text_:und in 3348) [ClassicSimilarity], result of:
          0.020021284 = score(doc=3348,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.38329202 = fieldWeight in 3348, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3348)
        0.014564968 = weight(_text_:im in 3348) [ClassicSimilarity], result of:
          0.014564968 = score(doc=3348,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 3348, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3348)
        0.0077775535 = product of:
          0.015555107 = sum of:
            0.015555107 = weight(_text_:1 in 3348) [ClassicSimilarity], result of:
              0.015555107 = score(doc=3348,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.26867998 = fieldWeight in 3348, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3348)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Dieser aus zwei Teilen bestehende Beitrag setzt Methoden der semantischen Wissensrepräsentation in Verbindung zur Gestaltung von Retrievalszenarios für begriffliche Recherchen und insbesondere für die Wissensexploration. Ausgehend von heterogenen Erschließungssituationen werden Konzepte vorgestellt, wie durch Maßnahmen zur Herstellung von Interoperabilität ein Beitrag zur Lösung der Heterogenitätssituation geleistet werden soll. Basierend auf einem, im zweiten Teil vorgestellten, formalen Modell zum besseren Verständnis von semantischer Interoperabilität, wird ein Vorschlag für ein Gesamtsystem entwickelt, das aus einer Kernontologie und lokalisierten semantischen Netzen mit erweitertem Relationenumfang besteht. Die Möglichkeiten zur Recherche und Exploration in einem solchen Gesamtrahmen werden skizziert.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.1, S.5-18
  2. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.01
    0.0052234377 = product of:
      0.040046357 = sum of:
        0.018089388 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.018089388 = score(doc=4335,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.014712838 = weight(_text_:im in 4335) [ClassicSimilarity], result of:
          0.014712838 = score(doc=4335,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 4335, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.0072441325 = product of:
          0.014488265 = sum of:
            0.014488265 = weight(_text_:international in 4335) [ClassicSimilarity], result of:
              0.014488265 = score(doc=4335,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18428308 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4335)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Klassische bibliothekarische Indexierungswerkzeuge werden bis heute nur selten fürs Retrieval nutzbar gemacht; die Wichtigkeit, verschiedene dieser Vokabularien zu harmonisieren und integriert zu verwenden, ist noch immer keine Selbstverständlichkeit. Im Rahmen des DFG-Projektes "CrissCross" wird, ausgehend von der deutschen Ausgabe der Dewey-Dezimalklassifikation, eine Verknüpfung zwischen der DDC und der Schlagwortnormdatei (SWD) aufgebaut, um eine verbale Suche über klassifikatorisch erschlossene Bestände zu ermöglichen. Als Verbreiterung der Basis des verbalen Zugriffs wird außerdem das Mapping der amerikanischen LCSH und des französischen RAMEAU angestrebt. Nach einer kurzen Vorstellung von CrissCross und der Abgrenzung gegenüber ähnlichen Unterfangen werden Rückwirkungen semantischer Integration auf die verknüpften Vokabulare diskutiert. Wie müssen und können sich z.B. Thesauri verändern, wenn sie mit anderen (strukturheterologen) Systemen verknüpft sind? Dabei liegt ein Schwerpunkt der Analyse auf dem semantischen Verhältnis üblicher Mappingrelationen zu den verknüpften Begriffen (besonders im Hinblick auf Polysemie). Außerdem wird der Mehrwert fürs Retrieval auf der Basis solcher Wissensorganisationssysteme, z.B. durch automatisierten Zugriff über Ontologien, diskutiert.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  3. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.01
    0.0050036754 = product of:
      0.038361512 = sum of:
        0.015665868 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.015665868 = score(doc=4793,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.014712838 = weight(_text_:im in 4793) [ClassicSimilarity], result of:
          0.014712838 = score(doc=4793,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 4793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01596561 = score(doc=4793,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  4. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.00
    0.00494032 = product of:
      0.037875786 = sum of:
        0.014300916 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.014300916 = score(doc=29,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27378 = fieldWeight in 29, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.018019475 = weight(_text_:im in 29) [ClassicSimilarity], result of:
          0.018019475 = score(doc=29,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 29, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.0055553955 = product of:
          0.011110791 = sum of:
            0.011110791 = weight(_text_:1 in 29) [ClassicSimilarity], result of:
              0.011110791 = score(doc=29,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19191428 = fieldWeight in 29, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Content
    Vgl.: http://www.degruyter.com/view/j/iwp.2012.63.issue-1/iwp-2012-0004/iwp-2012-0004.xml?format=INT. Auch unter: http://eprints.rclis.org/handle/10760/16716#.T18avnl4ofw.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.1, S.45-55
  5. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.00
    0.004879954 = product of:
      0.03741298 = sum of:
        0.015349354 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.015349354 = score(doc=1021,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.012484257 = weight(_text_:im in 1021) [ClassicSimilarity], result of:
          0.012484257 = score(doc=1021,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.009579366 = product of:
          0.019158732 = sum of:
            0.019158732 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.019158732 = score(doc=1021,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  6. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.00
    0.004720365 = product of:
      0.0542842 = sum of:
        0.016921071 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.016921071 = score(doc=788,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.037363127 = weight(_text_:informationswissenschaft in 788) [ClassicSimilarity], result of:
          0.037363127 = score(doc=788,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.35193008 = fieldWeight in 788, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
      0.08695652 = coord(2/23)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  7. Dahlberg, I.: Kompatibilität und Integration : Probleme und Lösungen in der Wissensorganisation (2008) 0.00
    0.00413814 = product of:
      0.031725742 = sum of:
        0.011077442 = weight(_text_:und in 1677) [ClassicSimilarity], result of:
          0.011077442 = score(doc=1677,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.21206908 = fieldWeight in 1677, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1677)
        0.010403548 = weight(_text_:im in 1677) [ClassicSimilarity], result of:
          0.010403548 = score(doc=1677,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 1677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1677)
        0.0102447495 = product of:
          0.020489499 = sum of:
            0.020489499 = weight(_text_:international in 1677) [ClassicSimilarity], result of:
              0.020489499 = score(doc=1677,freq=4.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.26061562 = fieldWeight in 1677, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1677)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Content
    Enthält im Anhang (S.48-49) die: "Recommendations of the Research Seminar on Compatibility and Integration of Order Systems organized by the International Society fpr Knowledge Organization (ISKO) and the Society for Professional Information (TIP), Warsaw, Poland, September 13-15, 1995".
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  8. Hubrich, J.: Begriffliche Suche und Wissensexploration in heterogenen Informationsräumen : Kurzfassung (2009) 0.00
    0.0038510847 = product of:
      0.044287473 = sum of:
        0.023689501 = weight(_text_:und in 3729) [ClassicSimilarity], result of:
          0.023689501 = score(doc=3729,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4535172 = fieldWeight in 3729, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
        0.020597974 = weight(_text_:im in 3729) [ClassicSimilarity], result of:
          0.020597974 = score(doc=3729,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 3729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
      0.08695652 = coord(2/23)
    
    Abstract
    Erschließungsinstrumente erhöhen Effizienz und Effektivität thematischer Recherchen, indem sie standardisierte Zugänge zu Informationsressourcen bieten und mittels Ausweisung von Begriffsbeziehungen explorative Suchprozesse unterstützen. In heterogenen Informationsräumen ist ihre Funktionalität aufgrund der Unterschiedlichkeit der verwendeten Indexierungsdaten indes begrenzt. Die Herstellung von Verbindungen zwischen Dokumentationssprachen trägt dazu bei, dass das mit einem einzelnen Begriffssystem gegebene Potential über Teilmengen hinaus nutzbar wird. Welcher Mehrwert durch eine adäquate Einbindung derartiger Verknüpfungen in Retrievalapplikationen im Einzelnen erzielt werden kann, ist wesentlich abhängig von der zugrunde liegenden Methode der Heterogenitätsbehandlung und den berücksichtigten Charakteristika der jeweiligen Erschließungsinstrumente. Im Folgenden wird der vom DFG-Projekt CrissCross praktizierte Ansatz zur Herstellung von semantischer Interoperabilität zwischen der Schlagwortnormdatei (SWD) und der Dewey-Dezimalklassifikation (DDC) vorgestellt und sein Nutzen zur Unterstützung thematischer Suchprozesse aufgezeigt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.4, S.7-11
  9. Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021) 0.00
    0.0034687053 = product of:
      0.03989011 = sum of:
        0.025325142 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.025325142 = score(doc=368,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.014564968 = weight(_text_:im in 368) [ClassicSimilarity], result of:
          0.014564968 = score(doc=368,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
      0.08695652 = coord(2/23)
    
    Abstract
    coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
    Series
    Bibliotheks- und Informationspraxis; 70
  10. Dunckel, P.: Zusammenführung mehrerer Thesauri zu einem gemeinsamen Begriffssystem : Probleme und Lösungsansätze (2017) 0.00
    0.0034228407 = product of:
      0.03936267 = sum of:
        0.021707265 = weight(_text_:und in 4233) [ClassicSimilarity], result of:
          0.021707265 = score(doc=4233,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 4233, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
        0.017655406 = weight(_text_:im in 4233) [ClassicSimilarity], result of:
          0.017655406 = score(doc=4233,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.26501122 = fieldWeight in 4233, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
      0.08695652 = coord(2/23)
    
    Abstract
    Im Zeitalter der digitalen Vernetzung und im Zuge zunehmend interdisziplinärer und internationaler Forschungsbestrebungen gewinnt die Interoperabilität von Informationssystemen stärker an Bedeutung. Ein wichtiger Schritt, um diese Interoperabilität zu erreichen und einen zentralen Zugang zu verteilten Systemen zu ermöglichen, liegt in der Zusammenführung der jeweiligen Erschließungsinstrumente der Informationssysteme. Eine Integration der verschiedenen kontrollierten Vokabulare erlaubt einen Datenaustausch zwischen den diversen Informationssystemen. Außerdem ermöglicht und vereinfacht sie eine systemübergreifende Recherche über mehrere Datenbanken, ohne dass eine Suchanfrage mehrmals formuliert oder umformuliert werden muss. Es existieren unterschiedliche Methoden und Instrumente sowie Strukturmodelle, mit denen eine Thesaurusintegration durchgeführt werden kann. Die am weitesten verbreitete Methode, das Mapping, ist sogar als ISO-Norm formuliert. Bei einer Thesauruszusammenführung können diverse Probleme auftreten. Jedoch gibt es Lösungsansätze, mit denen den Herausforderungen begegnet werden kann.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.4, S.253-262
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Fiala, S.: Deutscher Bibliothekartag Leipzig 2007 : Sacherschließung - Informationsdienstleistung nach Mass (2007) 0.00
    0.0033529524 = product of:
      0.038558953 = sum of:
        0.022043834 = weight(_text_:und in 415) [ClassicSimilarity], result of:
          0.022043834 = score(doc=415,freq=66.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.42201215 = fieldWeight in 415, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.01651512 = weight(_text_:im in 415) [ClassicSimilarity], result of:
          0.01651512 = score(doc=415,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2478953 = fieldWeight in 415, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
      0.08695652 = coord(2/23)
    
    Content
    ""Sacherschließung - Informationsdienstleistung nach Maß": unter diesem Titel fand am 3. Leipziger Kongress für Information und Bibliothek ("Information und Ethik") eine sehr aufschlussreiche Vortragsreihe statt. Neue Projekte der Vernetzung unterschiedlichst erschlossener Bestände wurden vorgestellt. Auch die Frage, inwieweit man die Nutzerinnen und Nutzer in die Erschließung einbinden kann, wurde behandelt. Die Arbeit der Bibliothekare kann wertvolle Ausgangssituationen für alternative Methoden bieten. Das Zusammenwirken von intellektueller und maschineller Erschließung wird in Zukunft eine große Rolle spielen. Ein Ausweg, um die Erschließung der ständig wachsenden Informationsquellen zu ermöglichen, könnte eine arbeitsteilige Erschließung und eine Kooperation mit anderen Informationseinrichtungen darstellen. Im Mittelpunkt all dieser Überlegungen standen die Heterogenitätsprobleme, die sich durch unterschiedliche Erschließungsregeln, verschiedene Arbeitsinstrumente, verschiedene Sprachen und durch die unterschiedliche Bedeutung der Begriffe ergeben können. Der Nachmittag begann mit einem konkreten Beispiel: "Zum Stand der Heterogenitätsbehandlung in vascoda" (Philipp Mayr, Bonn und Anne-Kathrin Walter, Bonn). Das Wissenschaftsportal vascoda beinhaltet verschiedene Fachportale, und es kann entweder interdisziplinär oder fachspezifisch gesucht werden. Durch die verschiedenen Informationsangebote, die in einem Fachportal vorhanden sind und die in dem Wissenschaftsportal vascoda zusammengefasst sind, entsteht semantische Heterogenität. Oberstes Ziel ist somit die Heterogenitätsbehandlung. Die Erstellung von Crosskonkordanzen (zwischen Indexierungssprachen innerhalb eines Fachgebiets und zwischen Indexierungssprachen unterschiedlicher Fachgebiete) und dem sogenannten Heterogenitätsservice (Term-Umschlüsselungs-Dienst) wurden anhand dieses Wissenschaftsportals vorgestellt. "Crosskonkordanzen sind gerichtete, relevanzbewertete Relationen zwischen Termen zweier Thesauri, Klassifikationen oder auch anderer kontrollierter Vokabulare." Im Heterogenitätsservice soll die Suchanfrage so transformiert werden, dass sie alle relevanten Dokumente in den verschiedenen Datenbanken erreicht. Bei der Evaluierung der Crosskonkordanzen stellt sich die Frage der Zielgenauigkeit der Relationen, sowie die Frage nach der Relevanz der durch die Crosskonkordanz zusätzlich gefundenen Treffer. Drei Schritte der Evaluation werden durchgeführt: Zum einen mit natürlicher Sprache in der Freitextsuche, dann übersetzt in Deskriptoren in der Schlagwortsuche und zuletzt mit Deskriptoren in der Schlagwortsuche mit Einsatz der Crosskonkordanzen. Im Laufe des Sommers werden erste Ergebnisse der Evaluation der Crosskonkordanzen erwartet.
    Einen anderen sehr interessanten Ansatz bot der nächste Vortrag mit dem Titel: "Navigieren zwischen Schlagwort und Notation - Crisscross als Verbindung zwischen SWD und DDC" (Helga Karg, Frankfurt am Main und Guido Bee, Frankfurt am Main). Das Projekt Crisscross versucht durch Verbindung von SWD, LCSH, Rameau und DDC ein benutzergerechtes, multilinguales und thesaurusbasiertes Recherchevokabular zu erstellen. Es wurde eine Konkordanz zwischen SWD, LCSH und Rameau (Projekt MACS) erstellt und in den SWD-Sachschlagwörtern die DDCNotationen vermerkt. Durch die Angabe der Determiniertheit in der SWD kann zwischen "wesentlicher Übereinstimmung von SWD-Term und DDCKlasse", "SWD-Begriff spezifischer als die DDC-Klasse" und SWD-Begriff sowohl "nicht auf einen bestimmten Kontext beschränkt" als auch "SWDBegriff quer zur DDC-Hierarchie" unterschieden werden (siehe auch: Anzeige in MelviIClass).
    Der dritte Vortrag dieser Vortragsreihe mit dem Titel: "Anfragetransfers zur Integration von Internetquellen in digitalen Bibliotheken auf der Grundlage statistischer Termrelationen" (Robert Strötgen, Hildesheim) zeigte eine maschinelle Methode der Integration ausgewählter, inhaltlich aber nicht erschlossener Internetdokumentbestände in digitale Bibliotheken. Das Zusammentreffen inhaltlich gut erschlossener Fachdatenbanken mit Internetdokumenten steht im Mittelpunkt dieses Forschungsprojekts. "Sollen ausgewählte fachliche Internetdokumente zur Ausweitung einer Recherche in einer digitalen Bibliothek integriert werden, ist dies entweder durch eine Beschränkung auf hochwertige und aufwändig erstellte Clearinghouses oder durch eine "naive" Weiterleitung der Benutzeranfrage möglich." Weiter heißt es in der Projektbeschreibung: "Unter Anwendung von Methoden des maschinellen Lernens werden semantische Relationen zwischen Klassen verschiedener Ontologien erstellt, die Übergänge zwischen diesen Ontologien ermöglichen. Besondere Bedeutung für dieses Forschungsvorhaben hat der Transfer zwischen Ontologien und Freitexttermen." Ausgehend vom Projekt CARMEN werden in diesem Projekt automatisiert - durch statistisches maschinelles Lernen - semantische Relationen berechnet. So wird eine Benutzeranfrage, die mittels Thesaurus erfolgte, für eine Abfrage in Internetdokumentbeständen transformiert.
    Jan Lüth (Kiel) zeigte mit seinem Vortrag "Inhaltserschließung durch Nutzerinnen und Nutzer: Ergebnisse eines Tests mit Internetquellen der Virtuellen Fachbibliothek EconBiz" als letzter an diesem Nachmittag eine alternative neue Methode der Erschließung. Für diesen Test wurde eine Teilmenge der im EconBiz-Fachinformationsführer enthaltenen Internetquellen in Social-Bookmarking-Webseiten angeboten, und es wurde beobachtet, inwieweit diese Internetquellen nachgenutzt und durch Schlagworte (Tags) ergänzt wurden. Social-Bookmarking-Webseiten ermöglichen eine private, aber auch öffentliche Verwaltung von Lesezeichen im Internet, welche mit freien Schlagwörtern (Tags), einem Titel und/oder einer Beschreibung versehen werden können. Diese Inhalte werden indexiert und somit werden verschiedene Sprachen, Begriffe und Schreibweisen suchbar. Ziel des Tests sollen Ergebnisse über Potenzial und Einsatzmöglichkeiten von Social-Bookmarking-Systemen im Kontext einer virtuellen Fachbibliothek sein. Als Fazit lässt sich sagen, dass Social Bookmarking sehr aufschlussreich sein kann, um neue Quellen zu erschließen und auszuwählen, und dass ein sehr großes Potenzial vorhanden ist, wenn viele Anwender viele Inhalte einbringen."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.44-46
  12. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.00
    0.00330093 = product of:
      0.037960693 = sum of:
        0.020305287 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
          0.020305287 = score(doc=1555,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.38872904 = fieldWeight in 1555, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.017655406 = weight(_text_:im in 1555) [ClassicSimilarity], result of:
          0.017655406 = score(doc=1555,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.26501122 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
      0.08695652 = coord(2/23)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
    Source
    Bibliothek: Forschung und Praxis. 38(2014) H.2, S.257-265
  13. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.00
    0.0032845542 = product of:
      0.037772372 = sum of:
        0.023059536 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.023059536 = score(doc=3236,freq=26.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.014712838 = weight(_text_:im in 3236) [ClassicSimilarity], result of:
          0.014712838 = score(doc=3236,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 3236, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
      0.08695652 = coord(2/23)
    
    Abstract
    Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  14. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.00
    0.0032442838 = product of:
      0.024872843 = sum of:
        0.007674677 = weight(_text_:und in 3732) [ClassicSimilarity], result of:
          0.007674677 = score(doc=3732,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.14692576 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.012484257 = weight(_text_:im in 3732) [ClassicSimilarity], result of:
          0.012484257 = score(doc=3732,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 3732) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=3732,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 3732, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.2, S.1-13
  15. Budin, G.: Kommunikation in Netzwerken : Terminologiemanagement (2006) 0.00
    0.0032270856 = product of:
      0.037111484 = sum of:
        0.020465806 = weight(_text_:und in 5700) [ClassicSimilarity], result of:
          0.020465806 = score(doc=5700,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.39180204 = fieldWeight in 5700, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5700)
        0.016645677 = weight(_text_:im in 5700) [ClassicSimilarity], result of:
          0.016645677 = score(doc=5700,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 5700, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=5700)
      0.08695652 = coord(2/23)
    
    Abstract
    Dieses Kapitel gibt einen Überblick über Ziele, Methoden, und Anwendungskontexte des Terminologiemanagements. Eine Definition von "Terminologie" leitet über zu einem terminologischen Wissensmodell, mit dem die Dynamik und Komplexität von begrifflichen Wissensstrukturen und entsprechenden lexikalischen Repräsentationsformen beschrieben werden kann. Ziel der terminologischen Wissensmodellierung ist die Erarbeitung von sprachlichen und begrifflichen Voraussetzungen für präzise Fachkommunikation sowie für die semantische Interoperabilität im künftigen "Semantic Web".
  16. Boteram, F.; Hubrich, J.: Towards a comprehensive international Knowledge Organization System (2008) 0.00
    0.0031777958 = product of:
      0.03654465 = sum of:
        0.017385917 = product of:
          0.034771834 = sum of:
            0.034771834 = weight(_text_:international in 4786) [ClassicSimilarity], result of:
              0.034771834 = score(doc=4786,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.44227937 = fieldWeight in 4786, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4786)
          0.5 = coord(1/2)
        0.019158732 = product of:
          0.038317464 = sum of:
            0.038317464 = weight(_text_:22 in 4786) [ClassicSimilarity], result of:
              0.038317464 = score(doc=4786,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.46428138 = fieldWeight in 4786, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4786)
          0.5 = coord(1/2)
      0.08695652 = coord(2/23)
    
    Date
    22. 9.2008 19:30:41
  17. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.00
    0.0031156412 = product of:
      0.035829872 = sum of:
        0.02022455 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.02022455 = score(doc=4315,freq=80.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.015605321 = weight(_text_:im in 4315) [ClassicSimilarity], result of:
          0.015605321 = score(doc=4315,freq=18.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.23423903 = fieldWeight in 4315, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.08695652 = coord(2/23)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
  18. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.00
    0.0030383086 = product of:
      0.03494055 = sum of:
        0.016921071 = weight(_text_:und in 367) [ClassicSimilarity], result of:
          0.016921071 = score(doc=367,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.32394084 = fieldWeight in 367, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.018019475 = weight(_text_:im in 367) [ClassicSimilarity], result of:
          0.018019475 = score(doc=367,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 367, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.08695652 = coord(2/23)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.00
    0.0030380338 = product of:
      0.03493739 = sum of:
        0.02022455 = weight(_text_:und in 373) [ClassicSimilarity], result of:
          0.02022455 = score(doc=373,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3871834 = fieldWeight in 373, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.014712838 = weight(_text_:im in 373) [ClassicSimilarity], result of:
          0.014712838 = score(doc=373,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 373, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
      0.08695652 = coord(2/23)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Series
    Bibliotheks- und Informationspraxis; 70
  20. Busch, D.: Organisation eines Thesaurus für die Unterstützung der mehrsprachigen Suche in einer bibliographischen Datenbank im Bereich Planen und Bauen (2016) 0.00
    0.0029477854 = product of:
      0.03389953 = sum of:
        0.019186692 = weight(_text_:und in 3308) [ClassicSimilarity], result of:
          0.019186692 = score(doc=3308,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3673144 = fieldWeight in 3308, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.014712838 = weight(_text_:im in 3308) [ClassicSimilarity], result of:
          0.014712838 = score(doc=3308,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 3308, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
      0.08695652 = coord(2/23)
    
    Abstract
    Das Problem der mehrsprachigen Suche gewinnt in der letzten Zeit immer mehr an Bedeutung, da viele nützliche Fachinformationen in der Welt in verschiedenen Sprachen publiziert werden. RSWBPlus ist eine bibliographische Datenbank zum Nachweis der Fachliteratur im Bereich Planen und Bauen, welche deutsch- und englischsprachige Metadaten-Einträge enthält. Bis vor Kurzem war es problematisch Einträge zu finden, deren Sprache sich von der Anfragesprache unterschied. Zum Beispiel fand man auf deutschsprachige Anfragen nur deutschsprachige Einträge, obwohl die Datenbank auch potenziell nützliche englischsprachige Einträge enthielt. Um das Problem zu lösen, wurde nach einer Untersuchung bestehender Ansätze, die RSWBPlus weiterentwickelt, um eine mehrsprachige (sprachübergreifende) Suche zu unterstützen, welche unter Einbeziehung eines zweisprachigen begriffbasierten Thesaurus erfolgt. Der Thesaurus wurde aus bereits bestehenden Thesauri automatisch gebildet. Die Einträge der Quell-Thesauri wurden in SKOS-Format (Simple Knowledge Organisation System) umgewandelt, automatisch miteinander vereinigt und schließlich in einen Ziel-Thesaurus eingespielt, der ebenfalls in SKOS geführt wird. Für den Zugriff zum Ziel-Thesaurus werden Apache Jena und MS SQL Server verwendet. Bei der mehrsprachigen Suche werden Terme der Anfrage durch entsprechende Übersetzungen und Synonyme in Deutsch und Englisch erweitert. Die Erweiterung der Suchterme kann sowohl in der Laufzeit, als auch halbautomatisch erfolgen. Das verbesserte Recherchesystem kann insbesondere deutschsprachigen Benutzern helfen, relevante englischsprachige Einträge zu finden. Die Verwendung vom SKOS erhöht die Interoperabilität der Thesauri, vereinfacht das Bilden des Ziel-Thesaurus und den Zugriff zu seinen Einträgen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Years

Languages

  • e 109
  • d 56
  • pt 1
  • More… Less…