Search (125 results, page 1 of 7)

  • × theme_ss:"Semantische Interoperabilität"
  • × year_i:[2010 TO 2020}
  1. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.017623946 = product of:
      0.08811973 = sum of:
        0.021319222 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.021319222 = score(doc=318,freq=30.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.022266837 = product of:
          0.044533674 = sum of:
            0.044533674 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
              0.044533674 = score(doc=318,freq=8.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.34475547 = fieldWeight in 318, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.044533674 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
          0.044533674 = score(doc=318,freq=8.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.34475547 = fieldWeight in 318, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.2 = coord(3/15)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  2. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.01395334 = product of:
      0.0697667 = sum of:
        0.041525397 = weight(_text_:buch in 4910) [ClassicSimilarity], result of:
          0.041525397 = score(doc=4910,freq=2.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.3082126 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.0231145 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.0231145 = score(doc=4910,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.0051268064 = product of:
          0.010253613 = sum of:
            0.010253613 = weight(_text_:information in 4910) [ClassicSimilarity], result of:
              0.010253613 = score(doc=4910,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.20156369 = fieldWeight in 4910, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4910)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    RSWK
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
    Subject
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
  3. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.01
    0.011963688 = product of:
      0.05981844 = sum of:
        0.024867244 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.024867244 = score(doc=4321,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.032484557 = weight(_text_:informationswissenschaft in 4321) [ClassicSimilarity], result of:
          0.032484557 = score(doc=4321,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.24885213 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 4321) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=4321,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 4321, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4321)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
    Content
    Masterarbeit im Studiengang Information Science & Engineering / Informationswissenschaft
  4. Prongué, N.; Schneider, R.: Modelling library linked data in practice (2015) 0.01
    0.009592776 = product of:
      0.07194582 = sum of:
        0.064969115 = weight(_text_:informationswissenschaft in 2985) [ClassicSimilarity], result of:
          0.064969115 = score(doc=2985,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.49770427 = fieldWeight in 2985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2985)
        0.0069766995 = product of:
          0.013953399 = sum of:
            0.013953399 = weight(_text_:information in 2985) [ClassicSimilarity], result of:
              0.013953399 = score(doc=2985,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.27429342 = fieldWeight in 2985, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2985)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Series
    Schriften zur Informationswissenschaft; Bd.66
    Source
    Re:inventing information science in the networked society: Proceedings of the 14th International Symposium on Information Science, Zadar/Croatia, 19th-21st May 2015. Eds.: F. Pehar, C. Schloegl u. C. Wolff
  5. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.01
    0.006446613 = product of:
      0.048349597 = sum of:
        0.018872911 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.018872911 = score(doc=1021,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.029476684 = sum of:
          0.005919926 = weight(_text_:information in 1021) [ClassicSimilarity], result of:
            0.005919926 = score(doc=1021,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.116372846 = fieldWeight in 1021, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.046875 = fieldNorm(doc=1021)
          0.023556758 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
            0.023556758 = score(doc=1021,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.23214069 = fieldWeight in 1021, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1021)
      0.13333334 = coord(2/15)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  6. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.00
    0.0047679786 = product of:
      0.035759836 = sum of:
        0.022018395 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.022018395 = score(doc=3730,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.013741443 = product of:
          0.027482886 = sum of:
            0.027482886 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.027482886 = score(doc=3730,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  7. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.00
    0.0047373413 = product of:
      0.035530057 = sum of:
        0.018872911 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.018872911 = score(doc=4379,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.016657146 = product of:
          0.03331429 = sum of:
            0.03331429 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.03331429 = score(doc=4379,freq=4.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  8. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.00
    0.004652384 = product of:
      0.03489288 = sum of:
        0.0231145 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.0231145 = score(doc=4408,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.011778379 = product of:
          0.023556758 = sum of:
            0.023556758 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.023556758 = score(doc=4408,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  9. Concepts in Context : Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010 (2011) 0.00
    0.00459614 = product of:
      0.034471046 = sum of:
        0.007863713 = weight(_text_:und in 628) [ClassicSimilarity], result of:
          0.007863713 = score(doc=628,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.12243814 = fieldWeight in 628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=628)
        0.026607333 = sum of:
          0.0069766995 = weight(_text_:information in 628) [ClassicSimilarity], result of:
            0.0069766995 = score(doc=628,freq=4.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.13714671 = fieldWeight in 628, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.0390625 = fieldNorm(doc=628)
          0.019630633 = weight(_text_:22 in 628) [ClassicSimilarity], result of:
            0.019630633 = score(doc=628,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.19345059 = fieldWeight in 628, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=628)
      0.13333334 = coord(2/15)
    
    Date
    22. 2.2013 11:34:18
    RSWK
    Wissensorganisation / Information Retrieval / Kongress / Köln <2010>
    Series
    Bibliotheca Academica - Reihe Informations- und Bibliothekswissenschaften; Bd. 1
    Subject
    Wissensorganisation / Information Retrieval / Kongress / Köln <2010>
  10. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.00
    0.004536895 = product of:
      0.034026712 = sum of:
        0.029840691 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.029840691 = score(doc=2782,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.0041860198 = product of:
          0.0083720395 = sum of:
            0.0083720395 = weight(_text_:information in 2782) [ClassicSimilarity], result of:
              0.0083720395 = score(doc=2782,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.16457605 = fieldWeight in 2782, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2782)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Kempf, A.O.: Thesauri und Interoperabilität mit anderen Vokabularen : Die neue Thesaurusnorm ISO 25964 (2013) 0.00
    0.004289863 = product of:
      0.032173973 = sum of:
        0.027240701 = weight(_text_:und in 1144) [ClassicSimilarity], result of:
          0.027240701 = score(doc=1144,freq=6.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.42413816 = fieldWeight in 1144, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1144)
        0.0049332716 = product of:
          0.009866543 = sum of:
            0.009866543 = weight(_text_:information in 1144) [ClassicSimilarity], result of:
              0.009866543 = score(doc=1144,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19395474 = fieldWeight in 1144, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1144)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.6, S.365-368
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  12. Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 2: Ein formales Modell semantischer Interoperabilität (2010) 0.00
    0.0042774263 = product of:
      0.032080695 = sum of:
        0.028134076 = weight(_text_:und in 1530) [ClassicSimilarity], result of:
          0.028134076 = score(doc=1530,freq=10.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.438048 = fieldWeight in 1530, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1530)
        0.0039466172 = product of:
          0.0078932345 = sum of:
            0.0078932345 = weight(_text_:information in 1530) [ClassicSimilarity], result of:
              0.0078932345 = score(doc=1530,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1551638 = fieldWeight in 1530, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1530)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In diesem zweiten Teil wird ein formales Modell zur semantischen Interoperabilität als Brücke zwischen formaler Modellierung und intellektueller Interpretation vorgestellt, das ein besseres Verständnis der zentralen Begriffe von semantischer Ähnlichkeit und Verschiedenheit von Begriffen und Klassen, sowohl als elementare Inhaltsentitäten von Dokumentationssprachen als auch als synthetische Repräsentationen von Dokumentinhalten, ermöglichen soll.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.1, S.19-28
  13. Dunckel, P.: Zusammenführung mehrerer Thesauri zu einem gemeinsamen Begriffssystem : Probleme und Lösungsansätze (2017) 0.00
    0.003953372 = product of:
      0.02965029 = sum of:
        0.026690327 = weight(_text_:und in 4233) [ClassicSimilarity], result of:
          0.026690327 = score(doc=4233,freq=16.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41556883 = fieldWeight in 4233, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 4233) [ClassicSimilarity], result of:
              0.005919926 = score(doc=4233,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 4233, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4233)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Im Zeitalter der digitalen Vernetzung und im Zuge zunehmend interdisziplinärer und internationaler Forschungsbestrebungen gewinnt die Interoperabilität von Informationssystemen stärker an Bedeutung. Ein wichtiger Schritt, um diese Interoperabilität zu erreichen und einen zentralen Zugang zu verteilten Systemen zu ermöglichen, liegt in der Zusammenführung der jeweiligen Erschließungsinstrumente der Informationssysteme. Eine Integration der verschiedenen kontrollierten Vokabulare erlaubt einen Datenaustausch zwischen den diversen Informationssystemen. Außerdem ermöglicht und vereinfacht sie eine systemübergreifende Recherche über mehrere Datenbanken, ohne dass eine Suchanfrage mehrmals formuliert oder umformuliert werden muss. Es existieren unterschiedliche Methoden und Instrumente sowie Strukturmodelle, mit denen eine Thesaurusintegration durchgeführt werden kann. Die am weitesten verbreitete Methode, das Mapping, ist sogar als ISO-Norm formuliert. Bei einer Thesauruszusammenführung können diverse Probleme auftreten. Jedoch gibt es Lösungsansätze, mit denen den Herausforderungen begegnet werden kann.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.4, S.253-262
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  14. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.00
    0.0038769871 = product of:
      0.029077401 = sum of:
        0.019262085 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.019262085 = score(doc=4793,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.009815317 = product of:
          0.019630633 = sum of:
            0.019630633 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.019630633 = score(doc=4793,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  15. ISO 25964-2: Der Standard für die Interoperabilität von Thesauri (2013) 0.00
    0.0038258089 = product of:
      0.028693564 = sum of:
        0.026966918 = weight(_text_:und in 772) [ClassicSimilarity], result of:
          0.026966918 = score(doc=772,freq=48.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41987535 = fieldWeight in 772, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=772)
        0.001726645 = product of:
          0.00345329 = sum of:
            0.00345329 = weight(_text_:information in 772) [ClassicSimilarity], result of:
              0.00345329 = score(doc=772,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.06788416 = fieldWeight in 772, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=772)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Anfang März 2013 veröffentlicht, behandelt ISO 25964-2 die Interoperabilität zwischen Thesauri und anderen Vokabularien. Es geht dabei hauptsächlich um die theoretischen Grundlagen und die praktische Durchführung von Thesaurusföderationen. Zu den behandelten Vokabulartypen zählen Klassifikationen, Aktenpläne für die Schriftgutverwaltung, Taxonomien, Schlagwortlisten, Normdateien für Individualnamen, Ontologien, Terminologiedatenbanken und Synonymringe.
    Content
    "Interoperabilität bedeutet, dass zwei oder mehrere Systeme oder Systemkomponenten Informationen austauschen und nutzen können. Diese Fähigkeit ist von grundsätzlicher Bedeutung für Informationsnetzwerke, auf die wir alle angewiesen sind, und mehr noch für die Entwicklung des Semantischen Web. Bei Thesauri gibt es zwei Ebenen der Interoperabilität: 1. Erstellung des Thesaurus in einer standardisierten Form, um den Import und die Nutzung des Thesaurus in anderen Systemen zu gewährleisten (dies wurde in ISO 25964-1 behandelt und 2011 publiziert). 2. Ergänzende Nutzung von weiteren Vokabularien und zwar durch die Erstellung von Mappings zwischen den Begriffen eines Thesaurus und denen eines anderen Vokabulars (Thema von ISO 25964-2). Nur wenn Mappings mit der empfohlenen Sorgfalt von ISO 25964-2 durchgeführt werden, kann sichergestellt werden, dass die auf ihnen basierenden Verknüpfungen im Semantic Web den nichtsahnenden Netzsurfer nicht zu irreführenden Ergebnissen führen.
    Der vollständige Titel von Teil 2 lautet "Information and documentation - Thesauri and interoperability with other vocabularies - Teil 2: Interoperability with other vocabularies". Wichtige Themen, die der Standard behandelt, sind Strukturmodelle für das Mapping, Richtlinien für Mappingtypen und der Umgang mit Präkombination, die besonders bei Klassifikationen, Taxonomien und Schlagwortsystemen vorkommt. Das primäre Augenmerk von ISO 25964 gilt den Thesauri, und mit Ausnahme von Terminologien existieren keine vergleichbaren Standards für die anderen Vokabulartypen. Statt zu versuchen, diese normativ darzustellen, behandelt Teil 2 ausschließlich die Interoperabilität zwischen ihnen und den Thesauri. Die Kapitel für die einzelnen Vokabulartypen decken jeweils folgende Sachverhalte ab: - Schlüsseleigenschaften des Vokabulars (deskriptiv, nicht normativ) - Semantische Komponenten/Beziehungen (deskriptiv, nicht normativ) Sofern anwendbar, Empfehlungen für das Mapping zwischen Vokabular und Thesaurus (normativ).
    Im Fall von Ontologien, Terminologien und Synonymringen ist das Mapping in oder aus einem Thesaurus nicht immer nützlich. Hier sind andere Formen sich gegenseitig befruchtender Nutzung zu empfehlen. Dies gilt besonders für Ontologien, die im Kontext des Semantischen Web kombiniert mit Thesauri eingesetzt werden können. ISO 25964-2 zeigt die Unterschiede zwischen Thesauri und Ontologien auf und gibt Beispiele für die Möglichkeiten interoperabler Funktionen. Praktische Implementation und weiterführende Arbeiten Und was bedeutet dies für SKOS, dem W3C-Standard für die Veröffentlichung von Simple Knowledge Organization Systems im Web? Die Arbeitsgruppen von SKOS und ISO 25964 haben glücklicherweise eng zusammengearbeitet, was sich in einer guten Kompatibilität der beiden Standards äußert. Gemeinsam haben sie eine Tabelle erarbeitet, die die Übereinstimmungen zwischen den Datenmodellen von ISO 25964 und SKOS/SKOS-XL aufzeigt und nun beim ISO 25964-Sekretariat unter http://www.niso.org/schemas/iso25964/frei zugänglich ist. Die Tabelle ist formal kein Bestandteil der beiden Standards, aber von beiden abhängig. Das macht sie zu einem Beispiel für die Entwicklung praktischer Tools für das sich erweiternde Semantische Web durch die Gemeinschaft seiner Nutzer."
    Footnote
    Im Anhang eine Liste von Publikationen und Präsentationen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  16. Stempfhuber, M.; Zapilko, M.B.: ¬Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken (2013) 0.00
    0.0038063498 = product of:
      0.028547622 = sum of:
        0.026080986 = weight(_text_:und in 917) [ClassicSimilarity], result of:
          0.026080986 = score(doc=917,freq=22.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.40608138 = fieldWeight in 917, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=917)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 917) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=917,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=917)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Digitale Bibliotheken stehen derzeit vor der Herausforderung, den veränderten Informationsbedürfnissen ihrer wissenschaftlichen Nutzer nachzukommen und einen integrierten Zugriff auf verschiedene Informationsarten (z.B. Publikationen, Primärdaten, Wissenschaftler- und. Organisationsprofile, Forschungsprojektinformationen) zu bieten, die in zunehmenden Maße digital zur Verfügung stehen und diese in virtuellen Forschungsumgebungen verfügbar zu machen. Die daraus resultierende Herausforderungen struktureller und semantischer Heterogenität werden durch ein weites Feld von verschiedenen Metadaten-Standards, Inhaltserschließungsverfahren sowie Indexierungsansätze für verschiedene Arten von Information getragen. Bisher existiert jedoch kein allgemeingültiges, integrierendes Modell für Organisation und Retrieval von Wissen in Digitalen Bibliotheken. Dieser Beitrag stellt aktuelle Forschungsentwicklungen und -aktivitäten vor, die die Problematik der semantischen Interoperabilität in Digitalen Bibliotheken behandeln und präsentiert ein Modell für eine integrierte Suche in textuellen Daten (z.B. Publikationen) und Faktendaten (z.B. Primärdaten), das verschiedene Ansätze der aktuellen Forschung aufgreift und miteinander in Bezug setzt. Eingebettet in den Forschungszyklus treffen dabei traditionelle Inhaltserschließungsverfahren für Publikationen auf neuere ontologie-basierte Ansätze, die für die Repräsentation komplexerer Informationen und Zusammenhänge (z.B. in sozialwissenschaftlichen Umfragedaten) geeigneter scheinen. Die Vorteile des Modells sind (1) die einfache Wiederverwendbarkeit bestehender Wissensorganisationssysteme sowie (2) ein geringer Aufwand bei der Konzeptmodellierung durch Ontologien.
  17. Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 1: Interoperabilität als Weg zur Wissensexploration (2010) 0.00
    0.0037427477 = product of:
      0.028070606 = sum of:
        0.024617316 = weight(_text_:und in 3348) [ClassicSimilarity], result of:
          0.024617316 = score(doc=3348,freq=10.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.38329202 = fieldWeight in 3348, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3348)
        0.00345329 = product of:
          0.00690658 = sum of:
            0.00690658 = weight(_text_:information in 3348) [ClassicSimilarity], result of:
              0.00690658 = score(doc=3348,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13576832 = fieldWeight in 3348, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3348)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Dieser aus zwei Teilen bestehende Beitrag setzt Methoden der semantischen Wissensrepräsentation in Verbindung zur Gestaltung von Retrievalszenarios für begriffliche Recherchen und insbesondere für die Wissensexploration. Ausgehend von heterogenen Erschließungssituationen werden Konzepte vorgestellt, wie durch Maßnahmen zur Herstellung von Interoperabilität ein Beitrag zur Lösung der Heterogenitätssituation geleistet werden soll. Basierend auf einem, im zweiten Teil vorgestellten, formalen Modell zum besseren Verständnis von semantischer Interoperabilität, wird ein Vorschlag für ein Gesamtsystem entwickelt, das aus einer Kernontologie und lokalisierten semantischen Netzen mit erweitertem Relationenumfang besteht. Die Möglichkeiten zur Recherche und Exploration in einem solchen Gesamtrahmen werden skizziert.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.1, S.5-18
  18. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.00
    0.0035481895 = product of:
      0.02661142 = sum of:
        0.024867244 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.024867244 = score(doc=4315,freq=80.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.0017441749 = product of:
          0.0034883497 = sum of:
            0.0034883497 = weight(_text_:information in 4315) [ClassicSimilarity], result of:
              0.0034883497 = score(doc=4315,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.068573356 = fieldWeight in 4315, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4315)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
  19. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.00
    0.0034765953 = product of:
      0.026074464 = sum of:
        0.0231145 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.0231145 = score(doc=4292,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 4292) [ClassicSimilarity], result of:
              0.005919926 = score(doc=4292,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  20. Celli, F. et al.: Enabling multilingual search through controlled vocabularies : the AGRIS approach (2016) 0.00
    0.0032751875 = product of:
      0.04912781 = sum of:
        0.04912781 = sum of:
          0.009866543 = weight(_text_:information in 3278) [ClassicSimilarity], result of:
            0.009866543 = score(doc=3278,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.19395474 = fieldWeight in 3278, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.078125 = fieldNorm(doc=3278)
          0.039261267 = weight(_text_:22 in 3278) [ClassicSimilarity], result of:
            0.039261267 = score(doc=3278,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.38690117 = fieldWeight in 3278, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=3278)
      0.06666667 = coord(1/15)
    
    Series
    Communications in computer and information science; 672
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou

Languages

  • e 82
  • d 42

Types

  • a 87
  • el 24
  • m 16
  • s 7
  • r 6
  • x 4
  • n 1
  • More… Less…