Search (179 results, page 1 of 9)

  • × theme_ss:"Semantische Interoperabilität"
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.22
    0.22409362 = product of:
      0.80033433 = sum of:
        0.042122863 = product of:
          0.12636858 = sum of:
            0.12636858 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.12636858 = score(doc=306,freq=2.0), product of:
                0.19272678 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022732547 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.12636858 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12636858 = score(doc=306,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12636858 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12636858 = score(doc=306,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12636858 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12636858 = score(doc=306,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12636858 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12636858 = score(doc=306,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12636858 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12636858 = score(doc=306,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12636858 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12636858 = score(doc=306,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.28 = coord(7/25)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.19
    0.18987964 = product of:
      0.5933739 = sum of:
        0.03008776 = product of:
          0.09026328 = sum of:
            0.09026328 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.09026328 = score(doc=1000,freq=2.0), product of:
                0.19272678 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022732547 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.02170648 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.02170648 = score(doc=1000,freq=24.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.32 = coord(8/25)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.03521776 = product of:
      0.1760888 = sum of:
        0.04350369 = weight(_text_:einzelne in 193) [ClassicSimilarity], result of:
          0.04350369 = score(doc=193,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.01085324 = weight(_text_:der in 193) [ClassicSimilarity], result of:
          0.01085324 = score(doc=193,freq=6.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.21373394 = fieldWeight in 193, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.07052831 = product of:
          0.14105663 = sum of:
            0.14105663 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.14105663 = score(doc=193,freq=2.0), product of:
                0.24092579 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.022732547 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.04350369 = weight(_text_:einzelne in 193) [ClassicSimilarity], result of:
          0.04350369 = score(doc=193,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.007699866 = product of:
          0.015399732 = sum of:
            0.015399732 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.015399732 = score(doc=193,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.2 = coord(5/25)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  4. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.02
    0.024195654 = product of:
      0.120978266 = sum of:
        0.03269525 = weight(_text_:informatik in 5901) [ClassicSimilarity], result of:
          0.03269525 = score(doc=5901,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.2818745 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.039146263 = weight(_text_:anwendungen in 5901) [ClassicSimilarity], result of:
          0.039146263 = score(doc=5901,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.30843142 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.017723266 = weight(_text_:der in 5901) [ClassicSimilarity], result of:
          0.017723266 = score(doc=5901,freq=16.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34902605 = fieldWeight in 5901, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.011924694 = product of:
          0.035774082 = sum of:
            0.035774082 = weight(_text_:z in 5901) [ClassicSimilarity], result of:
              0.035774082 = score(doc=5901,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.29484767 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
        0.019488804 = weight(_text_:t in 5901) [ClassicSimilarity], result of:
          0.019488804 = score(doc=5901,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.21762364 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
      0.2 = coord(5/25)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
    Source
    Semantic Web: Wege zur vernetzten Wissensgesellschaft. Hrsg.: T. Pellegrini, u. A. Blumauer
  5. Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen (2018) 0.02
    0.018789241 = product of:
      0.156577 = sum of:
        0.06960591 = weight(_text_:einzelne in 4272) [ClassicSimilarity], result of:
          0.06960591 = score(doc=4272,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.52023137 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
        0.017365186 = weight(_text_:der in 4272) [ClassicSimilarity], result of:
          0.017365186 = score(doc=4272,freq=6.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34197432 = fieldWeight in 4272, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
        0.06960591 = weight(_text_:einzelne in 4272) [ClassicSimilarity], result of:
          0.06960591 = score(doc=4272,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.52023137 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
      0.12 = coord(3/25)
    
    Abstract
    Heutzutage sind Informationsräume häufig durch die Heterogenität der in ihr enthaltenen Ressourcen geprägt, deren inhaltliche Beschreibungen aus unterschiedlichen Quellen stammen und auf der Basis verschiedener, sich strukturell und typologisch unterscheidender Erschließungsinstrumente erstellt wurden. Einzelne Klassifikationen können in solchen Räumen nur bedingt Suchunterstützung bieten, da sie stets nur auf einen Teilbestand zugreifen. Dieser Artikel beschreibt ausgehend von den Charakteristiken von Indexierungssprachen, wie durch semantische Interoperabilität eine Verbesserung der Retrievalsituation erreicht werden kann.
  6. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.02
    0.0153024625 = product of:
      0.09564039 = sum of:
        0.016813766 = weight(_text_:der in 4408) [ClassicSimilarity], result of:
          0.016813766 = score(doc=4408,freq=10.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3311152 = fieldWeight in 4408, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.046200227 = product of:
          0.06930034 = sum of:
            0.0429289 = weight(_text_:z in 4408) [ClassicSimilarity], result of:
              0.0429289 = score(doc=4408,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.35381722 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.026371442 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.026371442 = score(doc=4408,freq=4.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
        0.023386564 = weight(_text_:t in 4408) [ClassicSimilarity], result of:
          0.023386564 = score(doc=4408,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.26114836 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.009239838 = product of:
          0.018479677 = sum of:
            0.018479677 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.018479677 = score(doc=4408,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.16 = coord(4/25)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  7. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.01
    0.014232457 = product of:
      0.088952854 = sum of:
        0.030452587 = weight(_text_:einzelne in 4285) [ClassicSimilarity], result of:
          0.030452587 = score(doc=4285,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.22760123 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0244218 = weight(_text_:der in 4285) [ClassicSimilarity], result of:
          0.0244218 = score(doc=4285,freq=62.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.48094094 = fieldWeight in 4285, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.030452587 = weight(_text_:einzelne in 4285) [ClassicSimilarity], result of:
          0.030452587 = score(doc=4285,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.22760123 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.003625888 = product of:
          0.010877663 = sum of:
            0.010877663 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.010877663 = score(doc=4285,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.33333334 = coord(1/3)
      0.16 = coord(4/25)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
    Pages
    29 S
  8. Krause, J.: Polyzentrische Informationsversorgung in einer dezentralisierten Informationswelt (1998) 0.01
    0.014114529 = product of:
      0.17643161 = sum of:
        0.15516369 = weight(_text_:351 in 4359) [ClassicSimilarity], result of:
          0.15516369 = score(doc=4359,freq=2.0), product of:
            0.16310826 = queryWeight, product of:
              7.1750984 = idf(docFreq=91, maxDocs=44218)
              0.022732547 = queryNorm
            0.95129263 = fieldWeight in 4359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1750984 = idf(docFreq=91, maxDocs=44218)
              0.09375 = fieldNorm(doc=4359)
        0.02126792 = weight(_text_:der in 4359) [ClassicSimilarity], result of:
          0.02126792 = score(doc=4359,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.4188313 = fieldWeight in 4359, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4359)
      0.08 = coord(2/25)
    
    Content
    Enthält das Schalenmodell der Inhaltserschleißung am Beispiel der Forschungsprojektdatenbank FORIS des IZ Sozialwissenschaften
    Source
    nfd Information - Wissenschaft und Praxis. 49(1998) H.6, S.345-351
  9. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.01
    0.013254366 = product of:
      0.110453054 = sum of:
        0.04350369 = weight(_text_:einzelne in 1681) [ClassicSimilarity], result of:
          0.04350369 = score(doc=1681,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.023445679 = weight(_text_:der in 1681) [ClassicSimilarity], result of:
          0.023445679 = score(doc=1681,freq=28.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.46171808 = fieldWeight in 1681, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.04350369 = weight(_text_:einzelne in 1681) [ClassicSimilarity], result of:
          0.04350369 = score(doc=1681,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
      0.12 = coord(3/25)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  10. Wilde, E.: Semantische Interoperabilität von XML Schemas (2005) 0.01
    0.011223598 = product of:
      0.09352999 = sum of:
        0.07750565 = weight(_text_:anwendungen in 155) [ClassicSimilarity], result of:
          0.07750565 = score(doc=155,freq=4.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.61066306 = fieldWeight in 155, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0546875 = fieldNorm(doc=155)
        0.00877257 = weight(_text_:der in 155) [ClassicSimilarity], result of:
          0.00877257 = score(doc=155,freq=2.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.17275909 = fieldWeight in 155, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=155)
        0.007251776 = product of:
          0.021755327 = sum of:
            0.021755327 = weight(_text_:29 in 155) [ClassicSimilarity], result of:
              0.021755327 = score(doc=155,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.27205724 = fieldWeight in 155, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=155)
          0.33333334 = coord(1/3)
      0.12 = coord(3/25)
    
    Abstract
    XML bietet zwar durchaus das allgemein akzeptierte Verfahren zum Austausch strukturierter Daten, das in vielen Anwendungen benötigt wird, ist aber dennoch nicht ausreichend, Interoperabilität zwischen anwendungen sicherzustellen. Probleme können auf verschiedenen Ebenen entstehen, beginned bei so grundlegenden Dingen wie Zeichenkodierungen, bis hin zu Problemen des inhaltlichen Verständnisses von XML Dokumenten. Im vorliegeneden Artikel soll auf den letzteren Aspekt näher eingegangen werden, also die Frage, was notwendig ist, damit der Austausch von XML nicht nur syntaktisch funktioniert, sondern auch auf einem gemeinsamen Verständnis beider Seiten basiert.
    Date
    29. 5.2012 10:16:44
  11. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.01
    0.009063347 = product of:
      0.07552789 = sum of:
        0.039146263 = weight(_text_:anwendungen in 373) [ClassicSimilarity], result of:
          0.039146263 = score(doc=373,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.30843142 = fieldWeight in 373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.012532243 = weight(_text_:der in 373) [ClassicSimilarity], result of:
          0.012532243 = score(doc=373,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2467987 = fieldWeight in 373, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.023849389 = product of:
          0.071548164 = sum of:
            0.071548164 = weight(_text_:z in 373) [ClassicSimilarity], result of:
              0.071548164 = score(doc=373,freq=8.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.58969533 = fieldWeight in 373, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
          0.33333334 = coord(1/3)
      0.12 = coord(3/25)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  12. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.01
    0.008528505 = product of:
      0.10660632 = sum of:
        0.059348483 = weight(_text_:publishing in 604) [ClassicSimilarity], result of:
          0.059348483 = score(doc=604,freq=4.0), product of:
            0.11106311 = queryWeight, product of:
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.022732547 = queryNorm
            0.5343672 = fieldWeight in 604, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
        0.047257837 = weight(_text_:t in 604) [ClassicSimilarity], result of:
          0.047257837 = score(doc=604,freq=6.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.52770925 = fieldWeight in 604, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
      0.08 = coord(2/25)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
  13. Reasoning Web : Semantic Interoperability on the Web, 13th International Summer School 2017, London, UK, July 7-11, 2017, Tutorial Lectures (2017) 0.01
    0.0076292804 = product of:
      0.09536601 = sum of:
        0.0653905 = weight(_text_:informatik in 3934) [ClassicSimilarity], result of:
          0.0653905 = score(doc=3934,freq=8.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.563749 = fieldWeight in 3934, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3934)
        0.02997551 = weight(_text_:publishing in 3934) [ClassicSimilarity], result of:
          0.02997551 = score(doc=3934,freq=2.0), product of:
            0.11106311 = queryWeight, product of:
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.022732547 = queryNorm
            0.26989618 = fieldWeight in 3934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3934)
      0.08 = coord(2/25)
    
    Imprint
    Cham : Springer International Publishing
    RSWK
    RDF <Informatik> / Terminologische Logik
    OWL <Informatik>
    Subject
    RDF <Informatik> / Terminologische Logik
    OWL <Informatik>
  14. Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013) 0.01
    0.007052761 = product of:
      0.08815952 = sum of:
        0.073980905 = weight(_text_:informatik in 1115) [ClassicSimilarity], result of:
          0.073980905 = score(doc=1115,freq=4.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.6378092 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.014178614 = weight(_text_:der in 1115) [ClassicSimilarity], result of:
          0.014178614 = score(doc=1115,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.27922085 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
      0.08 = coord(2/25)
    
    Abstract
    Mit der Einführung von EAI im eigenen Unternehmen verbinden die meisten Unternehmer positive Ergebnisse und Wirkungen beim Betrieb ihrer IT-Systeme. Die Koexistenz vieler verschiedener Anwendungssysteme, Betriebssysteme und/oder Hardware spielt nur noch eine untergeordnete Rolle. Die Lauffähigkeit der Geschäftsprozesse wird durch EAI gewährleistet, und das nicht nur unternehmensintern, sondern auch -extern. Vergleichbar mit einem Plug & Play wird den Unternehmen suggeriert, dass eine EAI einfach und schnell eine homogene Umgebung wenn auch virtuell - erzeugt.
    Footnote
    Studienarbeit aus dem Jahr 2009 im Fachbereich Informatik - Theoretische Informatik, einseitig bedruckt, Note: 1,0, AKAD Fachhochschule Stuttgart.
  15. Balakrishnan, U.; Krausz, A,; Voss, J.: Cocoda - ein Konkordanztool für bibliothekarische Klassifikationssysteme (2015) 0.01
    0.0061474456 = product of:
      0.051228713 = sum of:
        0.019815216 = weight(_text_:der in 2030) [ClassicSimilarity], result of:
          0.019815216 = score(doc=2030,freq=20.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.390223 = fieldWeight in 2030, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
        0.011924694 = product of:
          0.035774082 = sum of:
            0.035774082 = weight(_text_:z in 2030) [ClassicSimilarity], result of:
              0.035774082 = score(doc=2030,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.29484767 = fieldWeight in 2030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2030)
          0.33333334 = coord(1/3)
        0.019488804 = weight(_text_:t in 2030) [ClassicSimilarity], result of:
          0.019488804 = score(doc=2030,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.21762364 = fieldWeight in 2030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
      0.12 = coord(3/25)
    
    Abstract
    Cocoda (Colibri Concordance Database for library classification systems) ist ein semi-automatisches, webbasiertes Tool für die Erstellung und Verwaltung von Konkordanzen zwischen bibliothekarischen Klassifikationssystemen. Das Tool wird im Rahmen des Teilprojektes "coli-conc" (Colibri-Konkordanzerstellung) des VZG-Projektes Colibri/DDC als eine Open-Source-Software an der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) entwickelt. Im Fokus des Projektes "coli-conc" steht zunächst die Konkordanzbildung zwischen der Dewey Dezimal Klassifikation (DDC) und der Regensburger Verbundklassifikation (RVK). Die inhärenten strukturellen und kulturellen Unterschiede von solch fein gegliederten bibliothekarischen Klassifikationssystemen machen den Konkordanzerstellungsprozess bei rein intellektuellem Ansatz aufwendig und zeitraubend. Um diesen zu vereinfachen und zu beschleunigen, werden die intellektuellen Schritte, die im Teilprojekt "coli-conc" eingesetzt werden, z. T. vom Konkordanztool "Cocoda" automatisch durchgeführt. Die von Cocoda erzeugten Konkordanz-Vorschläge stammen sowohl aus der automatischen Analyse der vergebenen Notationen in den Titeldatensätzen verschiedener Datenbanken als auch aus der vergleichenden Analyse der Begriffswelt der Klassifikationssysteme. Ferner soll "Cocoda" als eine Plattform für die Speicherung, Bereitstellung und Analyse von Konkordanzen dienen, um die Nutzungseffizienz der Konkordanzen zu erhöhen. In dieser Präsentation wird zuerst das Konkordanzprojekt "coli-conc", das die Basis des Konkordanztools "Cocoda" bildet, vorgestellt. Danach werden Algorithmus, Benutzeroberfläche und technische Details des Tools dargelegt. Anhand von Beispielen wird der Konkordanzerstellungsprozess mit Cocoda demonstriert.
  16. Schleipen, M.: Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES) (2013) 0.01
    0.005440992 = product of:
      0.0680124 = sum of:
        0.020051587 = weight(_text_:der in 1276) [ClassicSimilarity], result of:
          0.020051587 = score(doc=1276,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3948779 = fieldWeight in 1276, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
        0.047960814 = weight(_text_:publishing in 1276) [ClassicSimilarity], result of:
          0.047960814 = score(doc=1276,freq=2.0), product of:
            0.11106311 = queryWeight, product of:
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.022732547 = queryNorm
            0.4318339 = fieldWeight in 1276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
      0.08 = coord(2/25)
    
    Abstract
    MES (Manufacturing Execution Systems) sind zwischen der Automatisierungs- und der Unternehmensleitebene von Änderungen in der Produktion betroffen. Darum ist ihre Adaptivität im Lebenszyklus der Produktionsanlagen erfolgskritisch. Zusätzlich agieren MES als Daten- und Informationsdrehscheibe. Daher müssen sie möglichst gut und nahtlos mit anderen Systemen zusammenarbeiten: MES müssen interoperabel werden und dabei die Semantik im Griff haben. Die vorliegende Arbeit begegnet beiden Aspekten.
    Imprint
    Karlsruhe : KIT Scientific Publishing
  17. Neubauer, G.: Visualization of typed links in linked data (2017) 0.01
    0.0054385983 = product of:
      0.06798248 = sum of:
        0.017723266 = weight(_text_:der in 3912) [ClassicSimilarity], result of:
          0.017723266 = score(doc=3912,freq=16.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34902605 = fieldWeight in 3912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.05025921 = weight(_text_:datenverarbeitung in 3912) [ClassicSimilarity], result of:
          0.05025921 = score(doc=3912,freq=2.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.34947917 = fieldWeight in 3912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
      0.08 = coord(2/25)
    
    Abstract
    Das Themengebiet der Arbeit behandelt Visualisierungen von typisierten Links in Linked Data. Die wissenschaftlichen Gebiete, die im Allgemeinen den Inhalt des Beitrags abgrenzen, sind das Semantic Web, das Web of Data und Informationsvisualisierung. Das Semantic Web, das von Tim Berners Lee 2001 erfunden wurde, stellt eine Erweiterung zum World Wide Web (Web 2.0) dar. Aktuelle Forschungen beziehen sich auf die Verknüpfbarkeit von Informationen im World Wide Web. Um es zu ermöglichen, solche Verbindungen wahrnehmen und verarbeiten zu können sind Visualisierungen die wichtigsten Anforderungen als Hauptteil der Datenverarbeitung. Im Zusammenhang mit dem Sematic Web werden Repräsentationen von zusammenhängenden Informationen anhand von Graphen gehandhabt. Der Grund des Entstehens dieser Arbeit ist in erster Linie die Beschreibung der Gestaltung von Linked Data-Visualisierungskonzepten, deren Prinzipien im Rahmen einer theoretischen Annäherung eingeführt werden. Anhand des Kontexts führt eine schrittweise Erweiterung der Informationen mit dem Ziel, praktische Richtlinien anzubieten, zur Vernetzung dieser ausgearbeiteten Gestaltungsrichtlinien. Indem die Entwürfe zweier alternativer Visualisierungen einer standardisierten Webapplikation beschrieben werden, die Linked Data als Netzwerk visualisiert, konnte ein Test durchgeführt werden, der deren Kompatibilität zum Inhalt hatte. Der praktische Teil behandelt daher die Designphase, die Resultate, und zukünftige Anforderungen des Projektes, die durch die Testung ausgearbeitet wurden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.179-199
  18. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.00
    0.0049611367 = product of:
      0.06201421 = sum of:
        0.04697552 = weight(_text_:anwendungen in 3392) [ClassicSimilarity], result of:
          0.04697552 = score(doc=3392,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.37011772 = fieldWeight in 3392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.0150386905 = weight(_text_:der in 3392) [ClassicSimilarity], result of:
          0.0150386905 = score(doc=3392,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.29615843 = fieldWeight in 3392, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.08 = coord(2/25)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
  19. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.00
    0.0049610566 = product of:
      0.06201321 = sum of:
        0.04464802 = weight(_text_:monographien in 4302) [ClassicSimilarity], result of:
          0.04464802 = score(doc=4302,freq=2.0), product of:
            0.15154536 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.022732547 = queryNorm
            0.2946182 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.017365186 = weight(_text_:der in 4302) [ClassicSimilarity], result of:
          0.017365186 = score(doc=4302,freq=24.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34197432 = fieldWeight in 4302, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.08 = coord(2/25)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Footnote
    Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) eingereicht an der Philosophischen Fakultät I
  20. Veltman, K.H.: Syntactic and semantic interoperability : new approaches to knowledge and the Semantic Web (2001) 0.00
    0.00486327 = product of:
      0.060790878 = sum of:
        0.030395439 = weight(_text_:programme in 3883) [ClassicSimilarity], result of:
          0.030395439 = score(doc=3883,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.24308753 = fieldWeight in 3883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.03125 = fieldNorm(doc=3883)
        0.030395439 = weight(_text_:programme in 3883) [ClassicSimilarity], result of:
          0.030395439 = score(doc=3883,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.24308753 = fieldWeight in 3883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.03125 = fieldNorm(doc=3883)
      0.08 = coord(2/25)
    
    Abstract
    At VVWW-7 (Brisbane, 1997), Tim Berners-Lee outlined his vision of a global reasoning web. At VVWW- 8 (Toronto, May 1998), he developed this into a vision of a semantic web, where one Gould search not just for isolated words, but for meaning in the form of logically provable claims. In the past four years this vision has spread with amazing speed. The semantic web has been adopted by the European Commission as one of the important goals of the Sixth Framework Programme. In the United States it has become linked with the Defense Advanced Research Projects Agency (DARPA). While this quest to achieve a semantic web is new, the quest for meaning in language has a history that is almost as old as language itself. Accordingly this paper opens with a survey of the historical background. The contributions of the Dublin Core are reviewed briefly. To achieve a semantic web requires both syntactic and semantic interoperability. These challenges are outlined. A basic contention of this paper is that semantic interoperability requires much more than a simple agreement concerning the static meaning of a term. Different levels of agreement (local, regional, national and international) are involved and these levels have their own history. Hence, one of the larger challenges is to create new systems of knowledge organization, which identify and connect these different levels. With respect to meaning or semantics, early twentieth century pioneers such as Wüster were hopeful that it might be sufficient to limit oneself to isolated terms and words without reference to the larger grammatical context: to concept systems rather than to propositional logic. While a fascination with concept systems implicitly dominates many contemporary discussions, this paper suggests why this approach is not sufficient. The final section of this paper explores how an approach using propositional logic could lead to a new approach to universals and particulars. This points to a re-organization of knowledge, and opens the way for a vision of a semantic web with all the historical and cultural richness and complexity of language itself.

Years

Languages

  • e 95
  • d 79
  • no 1
  • More… Less…

Types

  • a 112
  • el 56
  • m 14
  • x 8
  • r 7
  • s 5
  • p 1
  • More… Less…