Search (125 results, page 1 of 7)

  • × theme_ss:"Semantische Interoperabilität"
  • × year_i:[2010 TO 2020}
  1. Zumer, M.; Zeng, M.L.; Salaba, A.: FRSAD: conceptual modeling of aboutness (2012) 0.03
    0.03213964 = product of:
      0.18480293 = sum of:
        0.084580794 = weight(_text_:katalogisierung in 1960) [ClassicSimilarity], result of:
          0.084580794 = score(doc=1960,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.6265196 = fieldWeight in 1960, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1960)
        0.084580794 = weight(_text_:katalogisierung in 1960) [ClassicSimilarity], result of:
          0.084580794 = score(doc=1960,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.6265196 = fieldWeight in 1960, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1960)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 1960) [ClassicSimilarity], result of:
              0.010999122 = score(doc=1960,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 1960, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1960)
          0.5 = coord(1/2)
        0.010141784 = product of:
          0.020283569 = sum of:
            0.020283569 = weight(_text_:international in 1960) [ClassicSimilarity], result of:
              0.020283569 = score(doc=1960,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2579963 = fieldWeight in 1960, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1960)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    This book offers the first comprehensive exploration of the development and use of the International Federation of Library Association's newly released model for subject authority data, covering everything from the rationale for creating the model to practical steps for implementing it.
    BK
    06.70 Katalogisierung Bestandserschließung
    Classification
    06.70 Katalogisierung Bestandserschließung
    Isbn
    978-1-59884-794-9
  2. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.023585653 = product of:
      0.108494006 = sum of:
        0.01733894 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.01733894 = score(doc=318,freq=30.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.018109638 = product of:
          0.036219276 = sum of:
            0.036219276 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
              0.036219276 = score(doc=318,freq=8.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.34475547 = fieldWeight in 318, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.036219276 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
          0.036219276 = score(doc=318,freq=8.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.34475547 = fieldWeight in 318, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.014978698 = product of:
          0.029957397 = sum of:
            0.029957397 = weight(_text_:kataloge in 318) [ClassicSimilarity], result of:
              0.029957397 = score(doc=318,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22170645 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.02184745 = weight(_text_:im in 318) [ClassicSimilarity], result of:
          0.02184745 = score(doc=318,freq=18.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32793462 = fieldWeight in 318, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.2173913 = coord(5/23)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  3. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.01
    0.014392219 = product of:
      0.08275525 = sum of:
        0.02022455 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.02022455 = score(doc=4321,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.026419718 = weight(_text_:informationswissenschaft in 4321) [ClassicSimilarity], result of:
          0.026419718 = score(doc=4321,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.24885213 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.021398142 = product of:
          0.042796284 = sum of:
            0.042796284 = weight(_text_:kataloge in 4321) [ClassicSimilarity], result of:
              0.042796284 = score(doc=4321,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.31672353 = fieldWeight in 4321, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4321)
          0.5 = coord(1/2)
        0.014712838 = weight(_text_:im in 4321) [ClassicSimilarity], result of:
          0.014712838 = score(doc=4321,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.17391305 = coord(4/23)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
    Content
    Masterarbeit im Studiengang Information Science & Engineering / Informationswissenschaft
  4. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.014369669 = product of:
      0.0826256 = sum of:
        0.015349354 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.015349354 = score(doc=4379,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.024968514 = weight(_text_:im in 4379) [ClassicSimilarity], result of:
          0.024968514 = score(doc=4379,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.37478244 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.028760463 = sum of:
          0.0094278185 = weight(_text_:1 in 4379) [ClassicSimilarity], result of:
            0.0094278185 = score(doc=4379,freq=2.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.16284466 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.019332644 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
            0.019332644 = score(doc=4379,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.23319192 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
        0.013547271 = product of:
          0.027094541 = sum of:
            0.027094541 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.027094541 = score(doc=4379,freq=4.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Source
    Bibliotheksdienst. 44(2010) H.1, S.25-34
    Theme
    Klassifikationssysteme im Online-Retrieval
  5. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.009483984 = product of:
      0.054532908 = sum of:
        0.018799042 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.018799042 = score(doc=4408,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.012484257 = weight(_text_:im in 4408) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4408,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.013670244 = product of:
          0.027340489 = sum of:
            0.027340489 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.027340489 = score(doc=4408,freq=4.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
        0.009579366 = product of:
          0.019158732 = sum of:
            0.019158732 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.019158732 = score(doc=4408,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  6. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.0084855575 = product of:
      0.065055944 = sum of:
        0.03377264 = weight(_text_:buch in 4910) [ClassicSimilarity], result of:
          0.03377264 = score(doc=4910,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3082126 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.018799042 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.018799042 = score(doc=4910,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.012484257 = weight(_text_:im in 4910) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4910,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.13043478 = coord(3/23)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    Content
    Die vorliegende Arbeit wurde von der Philosophischen Fakultät I, der Humboldt-Universität zu Berlin im Jahr 2009 als Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) angenommen.
  7. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.01
    0.007831795 = product of:
      0.060043763 = sum of:
        0.018799042 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.018799042 = score(doc=4292,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.012484257 = weight(_text_:im in 4292) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4292,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.028760463 = sum of:
          0.0094278185 = weight(_text_:1 in 4292) [ClassicSimilarity], result of:
            0.0094278185 = score(doc=4292,freq=2.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.16284466 = fieldWeight in 4292, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=4292)
          0.019332644 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
            0.019332644 = score(doc=4292,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.23319192 = fieldWeight in 4292, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=4292)
      0.13043478 = coord(3/23)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  8. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.01
    0.00742698 = product of:
      0.042705134 = sum of:
        0.014157185 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
          0.014157185 = score(doc=4285,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27102837 = fieldWeight in 4285, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.017838368 = weight(_text_:im in 4285) [ClassicSimilarity], result of:
          0.017838368 = score(doc=4285,freq=12.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2677575 = fieldWeight in 4285, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0056386874 = product of:
          0.011277375 = sum of:
            0.011277375 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.011277375 = score(doc=4285,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.5 = coord(1/2)
        0.005070892 = product of:
          0.010141784 = sum of:
            0.010141784 = weight(_text_:international in 4285) [ClassicSimilarity], result of:
              0.010141784 = score(doc=4285,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.12899815 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
    Pages
    29 S
  9. Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013) 0.01
    0.0068748547 = product of:
      0.05270722 = sum of:
        0.022881467 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
          0.022881467 = score(doc=1115,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 1115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.023540542 = weight(_text_:im in 1115) [ClassicSimilarity], result of:
          0.023540542 = score(doc=1115,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.35334828 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.0062852125 = product of:
          0.012570425 = sum of:
            0.012570425 = weight(_text_:1 in 1115) [ClassicSimilarity], result of:
              0.012570425 = score(doc=1115,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2171262 = fieldWeight in 1115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1115)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Mit der Einführung von EAI im eigenen Unternehmen verbinden die meisten Unternehmer positive Ergebnisse und Wirkungen beim Betrieb ihrer IT-Systeme. Die Koexistenz vieler verschiedener Anwendungssysteme, Betriebssysteme und/oder Hardware spielt nur noch eine untergeordnete Rolle. Die Lauffähigkeit der Geschäftsprozesse wird durch EAI gewährleistet, und das nicht nur unternehmensintern, sondern auch -extern. Vergleichbar mit einem Plug & Play wird den Unternehmen suggeriert, dass eine EAI einfach und schnell eine homogene Umgebung wenn auch virtuell - erzeugt.
    Footnote
    Studienarbeit aus dem Jahr 2009 im Fachbereich Informatik - Theoretische Informatik, einseitig bedruckt, Note: 1,0, AKAD Fachhochschule Stuttgart.
    Isbn
    978-3-640772-68-1
  10. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.01
    0.0060547874 = product of:
      0.046420038 = sum of:
        0.02426946 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.02426946 = score(doc=2782,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.012484257 = weight(_text_:im in 2782) [ClassicSimilarity], result of:
          0.012484257 = score(doc=2782,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.009666322 = product of:
          0.019332644 = sum of:
            0.019332644 = weight(_text_:29 in 2782) [ClassicSimilarity], result of:
              0.019332644 = score(doc=2782,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23319192 = fieldWeight in 2782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2782)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Date
    29. 3.2013 17:46:08
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Hennicke, S.: Linked data und semantische Suchfunktionalitäten in Europeana (2013) 0.01
    0.005975525 = product of:
      0.045812357 = sum of:
        0.022881467 = weight(_text_:und in 947) [ClassicSimilarity], result of:
          0.022881467 = score(doc=947,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 947, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.016645677 = weight(_text_:im in 947) [ClassicSimilarity], result of:
          0.016645677 = score(doc=947,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.0062852125 = product of:
          0.012570425 = sum of:
            0.012570425 = weight(_text_:1 in 947) [ClassicSimilarity], result of:
              0.012570425 = score(doc=947,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2171262 = fieldWeight in 947, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0625 = fieldNorm(doc=947)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Dieser Beitrag berichtet von Arbeiten, die im Projekt Europeana zu Linked Data und semantischer Suchfunktionalität durchgeführt wurden und basiert auf einem Vortrag vom 23.9.2010 auf der ODOK 2010. Die geplante und auf Technologien aus dem Bereich des Semantic Web basierende Informationsarchitektur von Europeana wird skizziert. Auf diese Informationsarchitektur setzen semantische Funktionalitäten auf die als zukunftsweisende Suchfunktionalitäten in Europeana implementiert werden sollen. Anhand einiger konkreter Beispiele wird in einem zweiten Teil das Grundprinzip einer möglichen semantischen Suche in Europeana dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.1, S.20-34
  12. Prongué, N.; Schneider, R.: Modelling library linked data in practice (2015) 0.01
    0.005854583 = product of:
      0.0673277 = sum of:
        0.052839436 = weight(_text_:informationswissenschaft in 2985) [ClassicSimilarity], result of:
          0.052839436 = score(doc=2985,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.49770427 = fieldWeight in 2985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2985)
        0.014488265 = product of:
          0.02897653 = sum of:
            0.02897653 = weight(_text_:international in 2985) [ClassicSimilarity], result of:
              0.02897653 = score(doc=2985,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.36856616 = fieldWeight in 2985, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2985)
          0.5 = coord(1/2)
      0.08695652 = coord(2/23)
    
    Series
    Schriften zur Informationswissenschaft; Bd.66
    Source
    Re:inventing information science in the networked society: Proceedings of the 14th International Symposium on Information Science, Zadar/Croatia, 19th-21st May 2015. Eds.: F. Pehar, C. Schloegl u. C. Wolff
  13. ISO 25964-2: Der Standard für die Interoperabilität von Thesauri (2013) 0.01
    0.0056059705 = product of:
      0.042979106 = sum of:
        0.021932216 = weight(_text_:und in 772) [ClassicSimilarity], result of:
          0.021932216 = score(doc=772,freq=48.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41987535 = fieldWeight in 772, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=772)
        0.016284129 = weight(_text_:im in 772) [ClassicSimilarity], result of:
          0.016284129 = score(doc=772,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24442805 = fieldWeight in 772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=772)
        0.00476276 = product of:
          0.00952552 = sum of:
            0.00952552 = weight(_text_:1 in 772) [ClassicSimilarity], result of:
              0.00952552 = score(doc=772,freq=6.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16453223 = fieldWeight in 772, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=772)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Anfang März 2013 veröffentlicht, behandelt ISO 25964-2 die Interoperabilität zwischen Thesauri und anderen Vokabularien. Es geht dabei hauptsächlich um die theoretischen Grundlagen und die praktische Durchführung von Thesaurusföderationen. Zu den behandelten Vokabulartypen zählen Klassifikationen, Aktenpläne für die Schriftgutverwaltung, Taxonomien, Schlagwortlisten, Normdateien für Individualnamen, Ontologien, Terminologiedatenbanken und Synonymringe.
    Content
    "Interoperabilität bedeutet, dass zwei oder mehrere Systeme oder Systemkomponenten Informationen austauschen und nutzen können. Diese Fähigkeit ist von grundsätzlicher Bedeutung für Informationsnetzwerke, auf die wir alle angewiesen sind, und mehr noch für die Entwicklung des Semantischen Web. Bei Thesauri gibt es zwei Ebenen der Interoperabilität: 1. Erstellung des Thesaurus in einer standardisierten Form, um den Import und die Nutzung des Thesaurus in anderen Systemen zu gewährleisten (dies wurde in ISO 25964-1 behandelt und 2011 publiziert). 2. Ergänzende Nutzung von weiteren Vokabularien und zwar durch die Erstellung von Mappings zwischen den Begriffen eines Thesaurus und denen eines anderen Vokabulars (Thema von ISO 25964-2). Nur wenn Mappings mit der empfohlenen Sorgfalt von ISO 25964-2 durchgeführt werden, kann sichergestellt werden, dass die auf ihnen basierenden Verknüpfungen im Semantic Web den nichtsahnenden Netzsurfer nicht zu irreführenden Ergebnissen führen.
    Der vollständige Titel von Teil 2 lautet "Information and documentation - Thesauri and interoperability with other vocabularies - Teil 2: Interoperability with other vocabularies". Wichtige Themen, die der Standard behandelt, sind Strukturmodelle für das Mapping, Richtlinien für Mappingtypen und der Umgang mit Präkombination, die besonders bei Klassifikationen, Taxonomien und Schlagwortsystemen vorkommt. Das primäre Augenmerk von ISO 25964 gilt den Thesauri, und mit Ausnahme von Terminologien existieren keine vergleichbaren Standards für die anderen Vokabulartypen. Statt zu versuchen, diese normativ darzustellen, behandelt Teil 2 ausschließlich die Interoperabilität zwischen ihnen und den Thesauri. Die Kapitel für die einzelnen Vokabulartypen decken jeweils folgende Sachverhalte ab: - Schlüsseleigenschaften des Vokabulars (deskriptiv, nicht normativ) - Semantische Komponenten/Beziehungen (deskriptiv, nicht normativ) Sofern anwendbar, Empfehlungen für das Mapping zwischen Vokabular und Thesaurus (normativ).
    Im Fall von Ontologien, Terminologien und Synonymringen ist das Mapping in oder aus einem Thesaurus nicht immer nützlich. Hier sind andere Formen sich gegenseitig befruchtender Nutzung zu empfehlen. Dies gilt besonders für Ontologien, die im Kontext des Semantischen Web kombiniert mit Thesauri eingesetzt werden können. ISO 25964-2 zeigt die Unterschiede zwischen Thesauri und Ontologien auf und gibt Beispiele für die Möglichkeiten interoperabler Funktionen. Praktische Implementation und weiterführende Arbeiten Und was bedeutet dies für SKOS, dem W3C-Standard für die Veröffentlichung von Simple Knowledge Organization Systems im Web? Die Arbeitsgruppen von SKOS und ISO 25964 haben glücklicherweise eng zusammengearbeitet, was sich in einer guten Kompatibilität der beiden Standards äußert. Gemeinsam haben sie eine Tabelle erarbeitet, die die Übereinstimmungen zwischen den Datenmodellen von ISO 25964 und SKOS/SKOS-XL aufzeigt und nun beim ISO 25964-Sekretariat unter http://www.niso.org/schemas/iso25964/frei zugänglich ist. Die Tabelle ist formal kein Bestandteil der beiden Standards, aber von beiden abhängig. Das macht sie zu einem Beispiel für die Entwicklung praktischer Tools für das sich erweiternde Semantische Web durch die Gemeinschaft seiner Nutzer."
    Date
    1. 6.2013 13:44:09
    Footnote
    Im Anhang eine Liste von Publikationen und Präsentationen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  14. Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 1: Interoperabilität als Weg zur Wissensexploration (2010) 0.01
    0.0055257133 = product of:
      0.042363804 = sum of:
        0.020021284 = weight(_text_:und in 3348) [ClassicSimilarity], result of:
          0.020021284 = score(doc=3348,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.38329202 = fieldWeight in 3348, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3348)
        0.014564968 = weight(_text_:im in 3348) [ClassicSimilarity], result of:
          0.014564968 = score(doc=3348,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 3348, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3348)
        0.0077775535 = product of:
          0.015555107 = sum of:
            0.015555107 = weight(_text_:1 in 3348) [ClassicSimilarity], result of:
              0.015555107 = score(doc=3348,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.26867998 = fieldWeight in 3348, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3348)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Dieser aus zwei Teilen bestehende Beitrag setzt Methoden der semantischen Wissensrepräsentation in Verbindung zur Gestaltung von Retrievalszenarios für begriffliche Recherchen und insbesondere für die Wissensexploration. Ausgehend von heterogenen Erschließungssituationen werden Konzepte vorgestellt, wie durch Maßnahmen zur Herstellung von Interoperabilität ein Beitrag zur Lösung der Heterogenitätssituation geleistet werden soll. Basierend auf einem, im zweiten Teil vorgestellten, formalen Modell zum besseren Verständnis von semantischer Interoperabilität, wird ein Vorschlag für ein Gesamtsystem entwickelt, das aus einer Kernontologie und lokalisierten semantischen Netzen mit erweitertem Relationenumfang besteht. Die Möglichkeiten zur Recherche und Exploration in einem solchen Gesamtrahmen werden skizziert.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.1, S.5-18
  15. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.01
    0.0050036754 = product of:
      0.038361512 = sum of:
        0.015665868 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.015665868 = score(doc=4793,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.014712838 = weight(_text_:im in 4793) [ClassicSimilarity], result of:
          0.014712838 = score(doc=4793,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 4793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01596561 = score(doc=4793,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  16. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.00
    0.00494032 = product of:
      0.037875786 = sum of:
        0.014300916 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.014300916 = score(doc=29,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27378 = fieldWeight in 29, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.018019475 = weight(_text_:im in 29) [ClassicSimilarity], result of:
          0.018019475 = score(doc=29,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 29, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.0055553955 = product of:
          0.011110791 = sum of:
            0.011110791 = weight(_text_:1 in 29) [ClassicSimilarity], result of:
              0.011110791 = score(doc=29,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19191428 = fieldWeight in 29, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Content
    Vgl.: http://www.degruyter.com/view/j/iwp.2012.63.issue-1/iwp-2012-0004/iwp-2012-0004.xml?format=INT. Auch unter: http://eprints.rclis.org/handle/10760/16716#.T18avnl4ofw.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.1, S.45-55
  17. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.00
    0.004879954 = product of:
      0.03741298 = sum of:
        0.015349354 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.015349354 = score(doc=1021,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.012484257 = weight(_text_:im in 1021) [ClassicSimilarity], result of:
          0.012484257 = score(doc=1021,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.009579366 = product of:
          0.019158732 = sum of:
            0.019158732 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.019158732 = score(doc=1021,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  18. Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010) 0.00
    0.004759134 = product of:
      0.036486693 = sum of:
        0.022154884 = weight(_text_:und in 4847) [ClassicSimilarity], result of:
          0.022154884 = score(doc=4847,freq=24.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.42413816 = fieldWeight in 4847, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.010403548 = weight(_text_:im in 4847) [ClassicSimilarity], result of:
          0.010403548 = score(doc=4847,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 4847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.0039282576 = product of:
          0.007856515 = sum of:
            0.007856515 = weight(_text_:1 in 4847) [ClassicSimilarity], result of:
              0.007856515 = score(doc=4847,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13570388 = fieldWeight in 4847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4847)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Jede Organisation, sei es in der freien Wirtschaft oder der öffentlichen Verwaltung, nutzt heute Informationssysteme zur effizienten Abwicklung der Geschäftsprozesse. Um Kooperationen zwischen den Organisationen zu ermöglichen, steigt dabei in zunehmendem Maße die Bedeutung organisationsübergreifender und medienbruchfreier Geschäftsprozesse. Grundlage für einen solchen Datenaustausch ist ein Vorgehen, das Fehlinterpretationen und inhaltliche Missverständnisse bei der Verwendung von Begriffen, Datenstrukturen, Schreibkonventionen etc. zu vermeiden hilft und semantische Interoperabilität ermöglicht. Erst die Semantische Interoperabilität gewährleistet einen effizienten organisationsinternen Datenaustausch und eine effiziente Datenintegration mit externen Kooperationsteilnehmern. Die Arbeit an praktikablen Konzepten und Lösungen steht im Zentrum des Arbeitsgebietes »Semantic Interoperability Engineering« (SIE). In diesem Whitepaper werden dafür zentrale Begriffe und Konzepte eingeführt. Sie dienen als Basis für eine weitere Beschäftigung mit dem Thema.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  19. Schleipen, M.: Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES) (2013) 0.00
    0.0040366966 = product of:
      0.04642201 = sum of:
        0.022881467 = weight(_text_:und in 1276) [ClassicSimilarity], result of:
          0.022881467 = score(doc=1276,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 1276, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
        0.023540542 = weight(_text_:im in 1276) [ClassicSimilarity], result of:
          0.023540542 = score(doc=1276,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.35334828 = fieldWeight in 1276, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
      0.08695652 = coord(2/23)
    
    Abstract
    MES (Manufacturing Execution Systems) sind zwischen der Automatisierungs- und der Unternehmensleitebene von Änderungen in der Produktion betroffen. Darum ist ihre Adaptivität im Lebenszyklus der Produktionsanlagen erfolgskritisch. Zusätzlich agieren MES als Daten- und Informationsdrehscheibe. Daher müssen sie möglichst gut und nahtlos mit anderen Systemen zusammenarbeiten: MES müssen interoperabel werden und dabei die Semantik im Griff haben. Die vorliegende Arbeit begegnet beiden Aspekten.
  20. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.00
    0.0038510847 = product of:
      0.044287473 = sum of:
        0.023689501 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.023689501 = score(doc=4782,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.020597974 = weight(_text_:im in 4782) [ClassicSimilarity], result of:
          0.020597974 = score(doc=4782,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 4782, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.08695652 = coord(2/23)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.

Languages

  • e 82
  • d 42

Types

  • a 91
  • el 29
  • m 13
  • r 6
  • s 5
  • x 2
  • n 1
  • More… Less…