Search (312 results, page 1 of 16)

  • × theme_ss:"Semantische Interoperabilität"
  1. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.11
    0.111394934 = product of:
      0.1782319 = sum of:
        0.005525463 = weight(_text_:in in 4183) [ClassicSimilarity], result of:
          0.005525463 = score(doc=4183,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.09017298 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.037056312 = weight(_text_:zu in 4183) [ClassicSimilarity], result of:
          0.037056312 = score(doc=4183,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.2777031 = fieldWeight in 4183, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.09193201 = weight(_text_:mensch in 4183) [ClassicSimilarity], result of:
          0.09193201 = score(doc=4183,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.36781168 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.025408106 = weight(_text_:und in 4183) [ClassicSimilarity], result of:
          0.025408106 = score(doc=4183,freq=6.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.2544829 = fieldWeight in 4183, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.018309997 = product of:
          0.036619995 = sum of:
            0.036619995 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.036619995 = score(doc=4183,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Terminologienormung ist eine Grundbedingung für internationalen Handel und birgt große Einsparungspotenziale in der industriellen Produktion. Tassilo Pellegrini sprach mit Dr. Christian Galinski, Leiter des Internationalen Informationszentrums für Terminologie (Infoterm), über Probleme der Mehrsprachigkeit, di Wechselwirkung zwischen Technik und Terminologie und wie durch semantische Interoperabilität die Schnittstelle Mensch-Maschine verbessert werden kann.
    Content
    "Der Begriff der semantischen Interoperabilität ist aufgetreten mit dem Semantic Web, einer Konzeption von Tim Berners-Lee, der sagt, das zunehmend die Computer miteinander über hochstandardisierte Sprachen, die wenig mit Natürlichsprachlichkeit zu tun haben, kommunizieren werden. Was er nicht sieht, ist dass rein technische Interoperabilität nicht ausreicht, um die semantische Interoperabilität herzustellen." ... "Der Begriff der semantischen Interoperabilität ist aufgetreten mit dem Semantic Web, einer Konzeption von Tim Berners-Lee, der sagt, das zunehmend die Computer miteinander über hochstandardisierte Sprachen, die wenig mit Natürlichsprachlichkeit zu tun haben, kommunizieren werden. Was er nicht sieht, ist dass rein technische Interoperabilität nicht ausreicht, um die semantische Interoperabilität herzustellen."
    Date
    22. 1.2011 10:16:32
  2. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.10
    0.09525278 = product of:
      0.19050556 = sum of:
        0.01441453 = weight(_text_:in in 3730) [ClassicSimilarity], result of:
          0.01441453 = score(doc=3730,freq=10.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.23523843 = fieldWeight in 3730, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.030569892 = weight(_text_:zu in 3730) [ClassicSimilarity], result of:
          0.030569892 = score(doc=3730,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.22909334 = fieldWeight in 3730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.034228545 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.034228545 = score(doc=3730,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.1112926 = sum of:
          0.06856927 = weight(_text_:gesellschaft in 3730) [ClassicSimilarity], result of:
            0.06856927 = score(doc=3730,freq=2.0), product of:
              0.19984774 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.045047637 = queryNorm
              0.34310755 = fieldWeight in 3730, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3730)
          0.042723328 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
            0.042723328 = score(doc=3730,freq=2.0), product of:
              0.15774915 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045047637 = queryNorm
              0.2708308 = fieldWeight in 3730, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3730)
      0.5 = coord(4/8)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  3. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.08
    0.08005598 = product of:
      0.16011196 = sum of:
        0.010690101 = weight(_text_:in in 318) [ClassicSimilarity], result of:
          0.010690101 = score(doc=318,freq=22.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.17445749 = fieldWeight in 318, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.040440172 = weight(_text_:zu in 318) [ClassicSimilarity], result of:
          0.040440172 = score(doc=318,freq=14.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.30306205 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.07584004 = weight(_text_:mensch in 318) [ClassicSimilarity], result of:
          0.07584004 = score(doc=318,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.30342916 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.033141647 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.033141647 = score(doc=318,freq=30.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.5 = coord(4/8)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  4. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.07
    0.068014376 = product of:
      0.13602875 = sum of:
        0.06479009 = weight(_text_:informatik in 5901) [ClassicSimilarity], result of:
          0.06479009 = score(doc=5901,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.2818745 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.01302364 = weight(_text_:in in 5901) [ClassicSimilarity], result of:
          0.01302364 = score(doc=5901,freq=16.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.21253976 = fieldWeight in 5901, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.030880256 = weight(_text_:zu in 5901) [ClassicSimilarity], result of:
          0.030880256 = score(doc=5901,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.23141924 = fieldWeight in 5901, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.027334766 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.027334766 = score(doc=5901,freq=10.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.27378 = fieldWeight in 5901, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
      0.5 = coord(4/8)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  5. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.06
    0.05939903 = product of:
      0.11879806 = sum of:
        0.009209105 = weight(_text_:in in 3236) [ClassicSimilarity], result of:
          0.009209105 = score(doc=3236,freq=8.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.15028831 = fieldWeight in 3236, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.030880256 = weight(_text_:zu in 3236) [ClassicSimilarity], result of:
          0.030880256 = score(doc=3236,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.23141924 = fieldWeight in 3236, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.044075992 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.044075992 = score(doc=3236,freq=26.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.034632713 = product of:
          0.069265425 = sum of:
            0.069265425 = weight(_text_:gesellschaft in 3236) [ClassicSimilarity], result of:
              0.069265425 = score(doc=3236,freq=4.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.346591 = fieldWeight in 3236, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3236)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
    Series
    Fortschritte in der Wissensorganisation; Bd.7
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  6. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.06
    0.05641613 = product of:
      0.11283226 = sum of:
        0.012182501 = weight(_text_:in in 1681) [ClassicSimilarity], result of:
          0.012182501 = score(doc=1681,freq=14.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.19881277 = fieldWeight in 1681, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.04882597 = weight(_text_:zu in 1681) [ClassicSimilarity], result of:
          0.04882597 = score(doc=1681,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.36590594 = fieldWeight in 1681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.027334766 = weight(_text_:und in 1681) [ClassicSimilarity], result of:
          0.027334766 = score(doc=1681,freq=10.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.27378 = fieldWeight in 1681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.024489027 = product of:
          0.048978053 = sum of:
            0.048978053 = weight(_text_:gesellschaft in 1681) [ClassicSimilarity], result of:
              0.048978053 = score(doc=1681,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.24507684 = fieldWeight in 1681, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1681)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  7. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.06
    0.05535584 = product of:
      0.11071168 = sum of:
        0.007975319 = weight(_text_:in in 4335) [ClassicSimilarity], result of:
          0.007975319 = score(doc=4335,freq=6.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.1301535 = fieldWeight in 4335, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.043671276 = weight(_text_:zu in 4335) [ClassicSimilarity], result of:
          0.043671276 = score(doc=4335,freq=8.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.32727623 = fieldWeight in 4335, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.03457605 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.03457605 = score(doc=4335,freq=16.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.024489027 = product of:
          0.048978053 = sum of:
            0.048978053 = weight(_text_:gesellschaft in 4335) [ClassicSimilarity], result of:
              0.048978053 = score(doc=4335,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.24507684 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4335)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Klassische bibliothekarische Indexierungswerkzeuge werden bis heute nur selten fürs Retrieval nutzbar gemacht; die Wichtigkeit, verschiedene dieser Vokabularien zu harmonisieren und integriert zu verwenden, ist noch immer keine Selbstverständlichkeit. Im Rahmen des DFG-Projektes "CrissCross" wird, ausgehend von der deutschen Ausgabe der Dewey-Dezimalklassifikation, eine Verknüpfung zwischen der DDC und der Schlagwortnormdatei (SWD) aufgebaut, um eine verbale Suche über klassifikatorisch erschlossene Bestände zu ermöglichen. Als Verbreiterung der Basis des verbalen Zugriffs wird außerdem das Mapping der amerikanischen LCSH und des französischen RAMEAU angestrebt. Nach einer kurzen Vorstellung von CrissCross und der Abgrenzung gegenüber ähnlichen Unterfangen werden Rückwirkungen semantischer Integration auf die verknüpften Vokabulare diskutiert. Wie müssen und können sich z.B. Thesauri verändern, wenn sie mit anderen (strukturheterologen) Systemen verknüpft sind? Dabei liegt ein Schwerpunkt der Analyse auf dem semantischen Verhältnis üblicher Mappingrelationen zu den verknüpften Begriffen (besonders im Hinblick auf Polysemie). Außerdem wird der Mehrwert fürs Retrieval auf der Basis solcher Wissensorganisationssysteme, z.B. durch automatisierten Zugriff über Ontologien, diskutiert.
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  8. Stempfhuber, M.; Zapilko, M.B.: ¬Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken (2013) 0.06
    0.055237085 = product of:
      0.11047417 = sum of:
        0.014560874 = weight(_text_:in in 917) [ClassicSimilarity], result of:
          0.014560874 = score(doc=917,freq=20.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.2376267 = fieldWeight in 917, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=917)
        0.030880256 = weight(_text_:zu in 917) [ClassicSimilarity], result of:
          0.030880256 = score(doc=917,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.23141924 = fieldWeight in 917, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=917)
        0.040544014 = weight(_text_:und in 917) [ClassicSimilarity], result of:
          0.040544014 = score(doc=917,freq=22.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.40608138 = fieldWeight in 917, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=917)
        0.024489027 = product of:
          0.048978053 = sum of:
            0.048978053 = weight(_text_:gesellschaft in 917) [ClassicSimilarity], result of:
              0.048978053 = score(doc=917,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.24507684 = fieldWeight in 917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=917)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Digitale Bibliotheken stehen derzeit vor der Herausforderung, den veränderten Informationsbedürfnissen ihrer wissenschaftlichen Nutzer nachzukommen und einen integrierten Zugriff auf verschiedene Informationsarten (z.B. Publikationen, Primärdaten, Wissenschaftler- und. Organisationsprofile, Forschungsprojektinformationen) zu bieten, die in zunehmenden Maße digital zur Verfügung stehen und diese in virtuellen Forschungsumgebungen verfügbar zu machen. Die daraus resultierende Herausforderungen struktureller und semantischer Heterogenität werden durch ein weites Feld von verschiedenen Metadaten-Standards, Inhaltserschließungsverfahren sowie Indexierungsansätze für verschiedene Arten von Information getragen. Bisher existiert jedoch kein allgemeingültiges, integrierendes Modell für Organisation und Retrieval von Wissen in Digitalen Bibliotheken. Dieser Beitrag stellt aktuelle Forschungsentwicklungen und -aktivitäten vor, die die Problematik der semantischen Interoperabilität in Digitalen Bibliotheken behandeln und präsentiert ein Modell für eine integrierte Suche in textuellen Daten (z.B. Publikationen) und Faktendaten (z.B. Primärdaten), das verschiedene Ansätze der aktuellen Forschung aufgreift und miteinander in Bezug setzt. Eingebettet in den Forschungszyklus treffen dabei traditionelle Inhaltserschließungsverfahren für Publikationen auf neuere ontologie-basierte Ansätze, die für die Repräsentation komplexerer Informationen und Zusammenhänge (z.B. in sozialwissenschaftlichen Umfragedaten) geeigneter scheinen. Die Vorteile des Modells sind (1) die einfache Wiederverwendbarkeit bestehender Wissensorganisationssysteme sowie (2) ein geringer Aufwand bei der Konzeptmodellierung durch Ontologien.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  9. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.05
    0.049397472 = product of:
      0.098794945 = sum of:
        0.009023043 = weight(_text_:in in 2439) [ClassicSimilarity], result of:
          0.009023043 = score(doc=2439,freq=12.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.14725187 = fieldWeight in 2439, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.03493702 = weight(_text_:zu in 2439) [ClassicSimilarity], result of:
          0.03493702 = score(doc=2439,freq=8.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.26182097 = fieldWeight in 2439, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.042628217 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.042628217 = score(doc=2439,freq=38.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.012206665 = product of:
          0.02441333 = sum of:
            0.02441333 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.02441333 = score(doc=2439,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
  10. Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013) 0.05
    0.04758472 = product of:
      0.19033888 = sum of:
        0.14660324 = weight(_text_:informatik in 1115) [ClassicSimilarity], result of:
          0.14660324 = score(doc=1115,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.6378092 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.04373563 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
          0.04373563 = score(doc=1115,freq=10.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.438048 = fieldWeight in 1115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
      0.25 = coord(2/8)
    
    Abstract
    Mit der Einführung von EAI im eigenen Unternehmen verbinden die meisten Unternehmer positive Ergebnisse und Wirkungen beim Betrieb ihrer IT-Systeme. Die Koexistenz vieler verschiedener Anwendungssysteme, Betriebssysteme und/oder Hardware spielt nur noch eine untergeordnete Rolle. Die Lauffähigkeit der Geschäftsprozesse wird durch EAI gewährleistet, und das nicht nur unternehmensintern, sondern auch -extern. Vergleichbar mit einem Plug & Play wird den Unternehmen suggeriert, dass eine EAI einfach und schnell eine homogene Umgebung wenn auch virtuell - erzeugt.
    Footnote
    Studienarbeit aus dem Jahr 2009 im Fachbereich Informatik - Theoretische Informatik, einseitig bedruckt, Note: 1,0, AKAD Fachhochschule Stuttgart.
  11. Hubrich, J.: Vom Stringmatching zur Begriffsexploration : das Potential integrierter begrifflicher Interoperabilität (2013) 0.05
    0.04667651 = product of:
      0.09335302 = sum of:
        0.012355312 = weight(_text_:in in 793) [ClassicSimilarity], result of:
          0.012355312 = score(doc=793,freq=10.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.20163295 = fieldWeight in 793, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.026202766 = weight(_text_:zu in 793) [ClassicSimilarity], result of:
          0.026202766 = score(doc=793,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.19636573 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.025408106 = weight(_text_:und in 793) [ClassicSimilarity], result of:
          0.025408106 = score(doc=793,freq=6.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.2544829 = fieldWeight in 793, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.02938683 = product of:
          0.05877366 = sum of:
            0.05877366 = weight(_text_:gesellschaft in 793) [ClassicSimilarity], result of:
              0.05877366 = score(doc=793,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.29409218 = fieldWeight in 793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.046875 = fieldNorm(doc=793)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Als Reaktion auf die mit fortschreitender Internationalisierung sich wandelnden Anforderungen an Informationsräume und Wissensorganisationssysteme haben sich verschiedene Modelle semantischer Interoperabilität herausgebildet, die darauf abzielen, mittels einer Verbindung von Begriffen verbreiteter Dokumentationssprachen eine Grundlage für effizientere Recherchen in heterogenen Informationsräumen zu schaffen. Diese können sowohl in Hinblick auf die in ihnen enthaltenen Eigenschaften zur Unterstützung von Suchprozessen als auch nach Art der Datenhaltung differenziert werden. Im Artikel werden die unterschiedlichen Interoperabilitätskonzepte und ihr jeweiliger Mehrwert für den thematischen Zugriff auf Informationen vorgestellt. Das Potential integrierter begrifflicher Interoperabilität insbes. zur Unterstützung von explorativen Suchprozessen wird unter Rückgriff auf die in dem DFG-Projekt CrissCross erstellten Mappings zwischen der Schlagwortnormdatei (SWD) und der Dewey-Dezimalklassifikation (DDC) veranschaulicht.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  12. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.04526897 = product of:
      0.12071726 = sum of:
        0.011278803 = weight(_text_:in in 4793) [ClassicSimilarity], result of:
          0.011278803 = score(doc=4793,freq=12.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.18406484 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.029943738 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.029943738 = score(doc=4793,freq=12.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.079494715 = sum of:
          0.048978053 = weight(_text_:gesellschaft in 4793) [ClassicSimilarity], result of:
            0.048978053 = score(doc=4793,freq=2.0), product of:
              0.19984774 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.045047637 = queryNorm
              0.24507684 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
          0.030516665 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
            0.030516665 = score(doc=4793,freq=2.0), product of:
              0.15774915 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045047637 = queryNorm
              0.19345059 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
      0.375 = coord(3/8)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  13. Semenova, E.; Stricker, M.: ¬Eine Ontologie der Wissenschaftsdisziplinen : Entwicklung eines Instrumentariums für die Wissenskommunikation (2007) 0.04
    0.043507457 = product of:
      0.11601989 = sum of:
        0.010296092 = weight(_text_:in in 1889) [ClassicSimilarity], result of:
          0.010296092 = score(doc=1889,freq=10.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.16802745 = fieldWeight in 1889, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.06905036 = weight(_text_:zu in 1889) [ClassicSimilarity], result of:
          0.06905036 = score(doc=1889,freq=20.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.51746917 = fieldWeight in 1889, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.036673438 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.036673438 = score(doc=1889,freq=18.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
      0.375 = coord(3/8)
    
    Abstract
    Interdisziplinarität als Kennzeichen des modernen Wissenschaftslebens setzt in Forschung und Lehre eine effiziente Wissenschaftskommunikation voraus, bei der sich die Partner über eine gemeinsame Sprache verständigen können. Klassifikationen und Thesauri übernehmen dabei eine wichtige Rolle. Zu beobachten ist, dass vorhandene Instrumente in ihrem Gefüge zu inflexibel sind, um die komplex ineinander verwobenen Felder der Wissenschaft in ihrer dynamischen Entwicklung adäquat abzubilden, zur (Selbst-)Verständigung über das Wesen und Struktur der Wissenschaftslandschaft sowie zum erfolgreichen Wissensaustausch beizutragen. Ontologien erschließen neue Wege zur Lösung dieser Aufgaben. In einigen Einzelwissenschaften und Teilgebieten ist diesbezüglich eine rege Tätigkeit zu beobachten, es fehlt allerdings noch ein fachübergreifendes Instrumentarium. Im Vortrag wird das von der DFG geförderte Projekt "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" vorgestellt. Es gilt, die oben beschriebene Lücke zu schließen und eine umfassende Ontologie für Erschließung, Recherche und Datenaustausch bei der Wissenschaftskommunikation zu erstellen. Diese Ontologie soll dazu beitragen, eine effiziente Wissenskommunikation, besonders bei interdisziplinären Projekten, zu unterstützen, verfügbare Ressourcen auffindbar zu machen und mögliche Knotenstellen künftiger Kooperationen zu verdeutlichen. Ausgehend von der Kritik an vorhandenen Instrumenten wird derzeit ein Begriffsmodell für die Beschreibung von Wissenschaftsdisziplinen, ihrer zentralen Facetten sowie ihrer interdisziplinären Beziehungen untereinander entwickelt. Das Modell, inspiriert vom Topic Maps Paradigma, basiert auf einer überschaubaren Menge zentraler Konzepte sowie prinzipiell inverser Beziehungen. Eine entsprechende Ontologie wird in unterschiedlichen (technischen) Beschreibungsformaten formuliert werden können. Dies bildet den Grundstein für den Fokus des Projekts, flexible, verteilte, benutzer- wie pflegefreundliche technische Umsetzungen zu entwickeln und mit Kooperationspartnern zu implementieren.
    Source
    Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel]
  14. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.04274184 = product of:
      0.08548368 = sum of:
        0.013813656 = weight(_text_:in in 193) [ClassicSimilarity], result of:
          0.013813656 = score(doc=193,freq=18.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.22543246 = fieldWeight in 193, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.021835638 = weight(_text_:zu in 193) [ClassicSimilarity], result of:
          0.021835638 = score(doc=193,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.16363811 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.03457605 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.03457605 = score(doc=193,freq=16.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.015258333 = product of:
          0.030516665 = sum of:
            0.030516665 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.030516665 = score(doc=193,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Content
    Vortrag; 98. Deutscher Bibliothekartag in Erfurt 2009. Vgl.: urn:nbn:de:0290-opus-7828.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  15. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.04
    0.042451218 = product of:
      0.084902436 = sum of:
        0.011050926 = weight(_text_:in in 1021) [ClassicSimilarity], result of:
          0.011050926 = score(doc=1021,freq=8.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.18034597 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.026202766 = weight(_text_:zu in 1021) [ClassicSimilarity], result of:
          0.026202766 = score(doc=1021,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.19636573 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.029338751 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.029338751 = score(doc=1021,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.018309997 = product of:
          0.036619995 = sum of:
            0.036619995 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.036619995 = score(doc=1021,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  16. Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009) 0.04
    0.04167055 = product of:
      0.11112147 = sum of:
        0.012892745 = weight(_text_:in in 4559) [ClassicSimilarity], result of:
          0.012892745 = score(doc=4559,freq=8.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.21040362 = fieldWeight in 4559, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
        0.052948613 = weight(_text_:zu in 4559) [ClassicSimilarity], result of:
          0.052948613 = score(doc=4559,freq=6.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.39680135 = fieldWeight in 4559, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
        0.045280106 = weight(_text_:und in 4559) [ClassicSimilarity], result of:
          0.045280106 = score(doc=4559,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.4535172 = fieldWeight in 4559, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
      0.375 = coord(3/8)
    
    Abstract
    Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
    Source
    Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
  17. Garcia Marco, F.J.: Compatibility & heterogeneity in knowledge organization : some reflections around a case study in the field of consumer information (2008) 0.04
    0.04012154 = product of:
      0.10699077 = sum of:
        0.015271572 = weight(_text_:in in 1678) [ClassicSimilarity], result of:
          0.015271572 = score(doc=1678,freq=22.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.24922498 = fieldWeight in 1678, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.0122244805 = weight(_text_:und in 1678) [ClassicSimilarity], result of:
          0.0122244805 = score(doc=1678,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.12243814 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.079494715 = sum of:
          0.048978053 = weight(_text_:gesellschaft in 1678) [ClassicSimilarity], result of:
            0.048978053 = score(doc=1678,freq=2.0), product of:
              0.19984774 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.045047637 = queryNorm
              0.24507684 = fieldWeight in 1678, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1678)
          0.030516665 = weight(_text_:22 in 1678) [ClassicSimilarity], result of:
            0.030516665 = score(doc=1678,freq=2.0), product of:
              0.15774915 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045047637 = queryNorm
              0.19345059 = fieldWeight in 1678, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1678)
      0.375 = coord(3/8)
    
    Abstract
    A case study in compatibility and heterogeneity of knowledge organization (KO) systems and processes is presented. It is based in the experience of the author in the field of information for consumer protection, a good example of the emerging transdisciplinary applied social sciences. The activities and knowledge organization problems and solutions of the Aragonian Consumers' Information and Documentation Centre are described and analyzed. Six assertions can be concluded: a) heterogeneity and compatibility are certainly an inherent problem in knowledge organization and also in practical domains; b) knowledge organization is also a social task, not only a lögical one; c) knowledge organization is affected by economical and efficiency considerations; d) knowledge organization is at the heart of Knowledge Management; e) identifying and maintaining the focus in interdisciplinary fields is a must; f the different knowledge organization tools of a institution must be considered as an integrated system, pursuing a unifying model.
    Date
    16. 3.2008 18:22:50
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  18. Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007) 0.04
    0.039691724 = product of:
      0.105844595 = sum of:
        0.011278803 = weight(_text_:in in 4434) [ClassicSimilarity], result of:
          0.011278803 = score(doc=4434,freq=12.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.18406484 = fieldWeight in 4434, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.04882597 = weight(_text_:zu in 4434) [ClassicSimilarity], result of:
          0.04882597 = score(doc=4434,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.36590594 = fieldWeight in 4434, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.04573982 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.04573982 = score(doc=4434,freq=28.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
      0.375 = coord(3/8)
    
    Abstract
    Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagement, Fakultät Information und Kommunikation, Hochschule der Medien Stuttgart
    Imprint
    Stuttgart : Hochschule der Medien / Fakultät Information und Kommunikation
  19. Galinski, C.: Wozu Normen? : Wozu semantische Interoperabilität? (2006) 0.04
    0.03908544 = product of:
      0.10422784 = sum of:
        0.007814185 = weight(_text_:in in 5811) [ClassicSimilarity], result of:
          0.007814185 = score(doc=5811,freq=4.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.12752387 = fieldWeight in 5811, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.052405532 = weight(_text_:zu in 5811) [ClassicSimilarity], result of:
          0.052405532 = score(doc=5811,freq=8.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.39273146 = fieldWeight in 5811, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.04400813 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.04400813 = score(doc=5811,freq=18.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
      0.375 = coord(3/8)
    
    Abstract
    Das Internet beginnt sein volles Potential als Kommunikationsraum zu entfalten. Das betrifft vor allem auch die distribuierte dynamische Erstellung und Wartung von strukturiertem Content. Dabei handelt es sich um datenbankmäßig strukturierte Daten (basierend auf Metadaten, generischen Datenmodellen und Metamodellen), die über die Attribute verfügen, welche ihre Qualität und damit das Vertrauen der Nutzer bestimmen. Da Fachwissen hochgradig "selbstreferenziell" ist, muss "smart content" einen Teil seines Kontexts - zumindest in Form von Verweisen - mit sich führen. Hinzu kommen Anforderungen an Contenteinheiten, grundsätzlich mehrsprachig. multimodal, multimedia sein zu können und hochgradige Personalisierung, Barrierefreiheit und unterschiedlichste Ausgabeformate zu unterstützen. Die Großindustrie weiß, dass eBusiness vom Ansatz her mehrsprachig angelegt sein muss, um Produkte und Dienstleistungen in der Sprache und Kultur der Zielmärkte verkaufen zu können. Viele Normungsaktivitäten zielen auf die Methoden der entsprechenden Datenmodellierung ab. Die Methodennormen von ISO/TC 37 "Terminologie und andere Sprach-, sowie Contentressourcen" haben sich bislang als die "generischsten" für fachsprachliche Contenteinheiten erwiesen, und bewähren sich auch für nicht-wortsprachliche Contenteinheiten auf der Ebene der lexikalischen Semantik.
  20. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.04
    0.038598057 = product of:
      0.102928154 = sum of:
        0.005525463 = weight(_text_:in in 557) [ClassicSimilarity], result of:
          0.005525463 = score(doc=557,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.09017298 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.05859117 = weight(_text_:zu in 557) [ClassicSimilarity], result of:
          0.05859117 = score(doc=557,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.43908715 = fieldWeight in 557, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.03881152 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.03881152 = score(doc=557,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.38872904 = fieldWeight in 557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
      0.375 = coord(3/8)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2

Years

Languages

  • e 224
  • d 83
  • pt 1
  • More… Less…

Types

  • a 212
  • el 94
  • m 18
  • x 11
  • r 9
  • s 7
  • n 2
  • p 2
  • More… Less…

Subjects