Search (188 results, page 1 of 10)

  • × theme_ss:"Semantic Web"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.04
    0.044275586 = product of:
      0.28041205 = sum of:
        0.017525753 = product of:
          0.052577257 = sum of:
            0.052577257 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.052577257 = score(doc=701,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.15789473 = coord(6/38)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Marcondes, C.H.: Representing and organizing scientific knowledge in biomedical articles with Semantic Web technologies (2017) 0.03
    0.028704192 = product of:
      0.13634491 = sum of:
        0.036419258 = weight(_text_:medizin in 3503) [ClassicSimilarity], result of:
          0.036419258 = score(doc=3503,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.4125196 = fieldWeight in 3503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.036419258 = weight(_text_:medizin in 3503) [ClassicSimilarity], result of:
          0.036419258 = score(doc=3503,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.4125196 = fieldWeight in 3503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.012576545 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3503,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.012576545 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3503,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3503) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3503,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3503, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3503)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3503,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.012576545 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3503,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3503) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3503,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3503, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3503)
          0.33333334 = coord(1/3)
      0.21052632 = coord(8/38)
    
    Field
    Medizin
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  3. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.03
    0.026971752 = product of:
      0.12811582 = sum of:
        0.018209629 = weight(_text_:medizin in 167) [ClassicSimilarity], result of:
          0.018209629 = score(doc=167,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.2062598 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.018209629 = weight(_text_:medizin in 167) [ClassicSimilarity], result of:
          0.018209629 = score(doc=167,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.2062598 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.015078747 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.015078747 = score(doc=167,freq=46.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.029024834 = weight(_text_:einzelner in 167) [ClassicSimilarity], result of:
          0.029024834 = score(doc=167,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.26040477 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.015078747 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.015078747 = score(doc=167,freq=46.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.0023567372 = product of:
          0.0047134743 = sum of:
            0.0047134743 = weight(_text_:4 in 167) [ClassicSimilarity], result of:
              0.0047134743 = score(doc=167,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.10493845 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=167)
          0.5 = coord(1/2)
        0.015078747 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.015078747 = score(doc=167,freq=46.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.015078747 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.015078747 = score(doc=167,freq=46.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.21052632 = coord(8/38)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
  4. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.02
    0.024336157 = product of:
      0.11559675 = sum of:
        0.020811005 = weight(_text_:medizin in 132) [ClassicSimilarity], result of:
          0.020811005 = score(doc=132,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.020811005 = weight(_text_:medizin in 132) [ClassicSimilarity], result of:
          0.020811005 = score(doc=132,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.013444892 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013444892 = score(doc=132,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.010097583 = product of:
          0.020195166 = sum of:
            0.020195166 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.020195166 = score(doc=132,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
        0.013444892 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013444892 = score(doc=132,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.013444892 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013444892 = score(doc=132,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.010097583 = product of:
          0.020195166 = sum of:
            0.020195166 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.020195166 = score(doc=132,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
        0.013444892 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013444892 = score(doc=132,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
      0.21052632 = coord(8/38)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.02
    0.023361932 = product of:
      0.098639265 = sum of:
        0.013286401 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.013286401 = score(doc=1847,freq=70.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0063109896 = product of:
          0.012621979 = sum of:
            0.012621979 = weight(_text_:allgemein in 1847) [ClassicSimilarity], result of:
              0.012621979 = score(doc=1847,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.1451322 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.029319508 = weight(_text_:einzelner in 1847) [ClassicSimilarity], result of:
          0.029319508 = score(doc=1847,freq=4.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.26304853 = fieldWeight in 1847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.013286401 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.013286401 = score(doc=1847,freq=70.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0016833837 = product of:
          0.0033667674 = sum of:
            0.0033667674 = weight(_text_:4 in 1847) [ClassicSimilarity], result of:
              0.0033667674 = score(doc=1847,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.07495604 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.013286401 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.013286401 = score(doc=1847,freq=70.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0063109896 = product of:
          0.012621979 = sum of:
            0.012621979 = weight(_text_:allgemein in 1847) [ClassicSimilarity], result of:
              0.012621979 = score(doc=1847,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.1451322 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.013286401 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.013286401 = score(doc=1847,freq=70.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0018687826 = product of:
          0.0056063477 = sum of:
            0.0056063477 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
              0.0056063477 = score(doc=1847,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.09672529 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.33333334 = coord(1/3)
      0.23684211 = coord(9/38)
    
    Abstract
    LibraryThing ist eine zur Klasse der Sozialen Software gehörende Webanwendung, in der Benutzer gemeinsam Bücher verwalten und miteinander in Kontakt treten können. Die Webseite wurde Ende August 2005 veröffentlicht und verzeichnet inzwischen (Juli 2007) über 235.000 Benutzer und 16 Millionen verschiedene Bücher. Jeder Nutzer verfügt über eine eigene Sammlung, die in LibraryThing als "Bibliotheken" oder "Katalog" bezeichnet wird. Die Katalogisierung geschieht in eine gemeinsame Datenbank, die von allen Nutzern direkt bearbeitet werden kann. Da es sich um eine reine Webanwendung handelt, muss zur Nutzung keine weitere Software installiert werden. Die Nutzung ist für bis zu 200 Medien kostenlos, eine jährliche Mitgliedschaft kostet 10 $ und eine lebenslange Mitgliedschaft 25 $. Bibliotheken und andere nichtkommerzielle Einrichtungen zahlen 15 $ pro Jahr. Dieses Preismodell hat sich auch nicht geändert, nachdem 40% des Unternehmens im Mai 2006 vom Gebrauchtbuchhändler AbeBooks übernommen wurden. Die Mehrheit hält weiterhin der Gründer Tim Spalding, der die ursprünglich als privates Projekt begonnene Seite mit inzwischen zwei weiteren Entwicklern und einer Bibliothekarin kontinuierlich weiterentwickelt.
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
    Source
    Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2007, H.137, S.12-13
    Theme
    Katalogfragen allgemein
  6. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.02
    0.018041885 = product of:
      0.11426528 = sum of:
        0.026013756 = weight(_text_:medizin in 3337) [ClassicSimilarity], result of:
          0.026013756 = score(doc=3337,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.29465687 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.026013756 = weight(_text_:medizin in 3337) [ClassicSimilarity], result of:
          0.026013756 = score(doc=3337,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.29465687 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.01555944 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.01555944 = score(doc=3337,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.01555944 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.01555944 = score(doc=3337,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.01555944 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.01555944 = score(doc=3337,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.01555944 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.01555944 = score(doc=3337,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.15789473 = coord(6/38)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
    Source
    GMS Medizin - Bibliothek - Information. 16(2016) Nr.3, 11 S. [http://www.egms.de/static/pdf/journals/mbi/2017-16/mbi000372.pdf]
  7. Stenzhorn, H.; Samwald, M.: ¬Das Semantic Web als Werkzeug in der biomedizinischen Forschung (2009) 0.01
    0.014672078 = product of:
      0.092923164 = sum of:
        0.031216504 = weight(_text_:medizin in 4878) [ClassicSimilarity], result of:
          0.031216504 = score(doc=4878,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.35358822 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.031216504 = weight(_text_:medizin in 4878) [ClassicSimilarity], result of:
          0.031216504 = score(doc=4878,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.35358822 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007622537 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007622537 = score(doc=4878,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007622537 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007622537 = score(doc=4878,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007622537 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007622537 = score(doc=4878,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007622537 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007622537 = score(doc=4878,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
      0.15789473 = coord(6/38)
    
    Abstract
    In der biomedizinischen Forschung werden besonders in den letzten Jahren vermehrt enorme Mengen an neuen Daten produziert und diese in Folge verstärkt per Internet veröffentlicht. Viele Experten sehen in dieser Vorgehensweise die Chance zur Entdeckung bisher unbekannter biomedizinischer Erkenntnisse. Um dies jedoch zu ermöglichen, müssen neue Wege gefunden werden, die gewonnenen Daten effizient zu verarbeiten und zu verwalten. In dem vorliegenden Artikel werden die Möglichkeiten betrachtet, die das Semantic Web hierzu anbieten kann. Hierfür werden die relevanten Technologien des Semantic Web im speziellen Kontext der biomedizinischen Forschung betrachtet. Ein Fokus liegt auf der Anwendung von Ontologien in der Biomedizin: Es wird auf deren Vorteile eingegangen, aber auch auf möglichen Probleme, die deren Einsatz in einem erweiterten wissenschaftlichen Umfeld mit sich bringen können.
    Field
    Medizin
  8. Hitzler, P.; Krötzsch, M.; Rudolph, S.; Sure, Y.: Semantic Web : Grundlagen (2008) 0.01
    0.014607692 = product of:
      0.09251539 = sum of:
        0.01420376 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.01420376 = score(doc=358,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.017850174 = product of:
          0.035700347 = sum of:
            0.035700347 = weight(_text_:allgemein in 358) [ClassicSimilarity], result of:
              0.035700347 = score(doc=358,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.41049585 = fieldWeight in 358, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=358)
          0.5 = coord(1/2)
        0.01420376 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.01420376 = score(doc=358,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.01420376 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.01420376 = score(doc=358,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.017850174 = product of:
          0.035700347 = sum of:
            0.035700347 = weight(_text_:allgemein in 358) [ClassicSimilarity], result of:
              0.035700347 = score(doc=358,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.41049585 = fieldWeight in 358, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=358)
          0.5 = coord(1/2)
        0.01420376 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.01420376 = score(doc=358,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
      0.15789473 = coord(6/38)
    
    Abstract
    Das Buch Semantic Web Grundlagen vermittelt als erstes deutschsprachiges Lehrbuch die Grundlagen des Semantic Web in verständlicher Weise. Es ermöglicht einen einfachen und zügigen Einstieg in Methoden und Technologien des Semantic Web und kann z.B. als solide Grundlage für die Vorbereitung und Durchführung von Vorlesungen genutzt werden. Die Autoren trennen dabei sauber zwischen einer intuitiven Hinführung zur Verwendung semantischer Technologien in der Praxis einerseits, und der Erklärung formaler und theoretischer Hintergründe andererseits. Nur für letzteres werden Grundkenntnisse in Logik vorausgesetzt, die sich bei Bedarf jedoch durch zusätzliche Lektüre und mit Hilfe eines entsprechenden Kapitels im Anhang aneignen lassen.Das Lehrbuch richtet sich primär an Studenten mit Grundkenntnissen in Informatik sowie an interessierte Praktiker welche sich im Bereich Semantic Web fortbilden möchten.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Content
    Inhalt: Die Idee des Semantic Web - Stuktur mit XML - Einfache Ontologien in RDF und RDF Schema - Formale Semantik von RDF(S) - Ontologien in OWL - Ontologien in OWL - Formale Semantik von OWL - Anfragesprachen - Pradikatenlogik - kurzgefasst - Naive Mengenlehre - kurzgefasst
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  9. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.01
    0.013063754 = product of:
      0.070917524 = sum of:
        0.004491623 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.004491623 = score(doc=2789,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.017850174 = product of:
          0.035700347 = sum of:
            0.035700347 = weight(_text_:allgemein in 2789) [ClassicSimilarity], result of:
              0.035700347 = score(doc=2789,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.41049585 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
        0.004491623 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.004491623 = score(doc=2789,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.004491623 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.004491623 = score(doc=2789,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.017850174 = product of:
          0.035700347 = sum of:
            0.035700347 = weight(_text_:allgemein in 2789) [ClassicSimilarity], result of:
              0.035700347 = score(doc=2789,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.41049585 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
        0.004491623 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.004491623 = score(doc=2789,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.017250683 = product of:
          0.05175205 = sum of:
            0.05175205 = weight(_text_:datenverarbeitung in 2789) [ClassicSimilarity], result of:
              0.05175205 = score(doc=2789,freq=4.0), product of:
                0.10471074 = queryWeight, product of:
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.016551789 = queryNorm
                0.4942382 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.33333334 = coord(1/3)
      0.18421052 = coord(7/38)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
  10. Borst, T.; Neubert, J.; Seiler, A.: Bibliotheken auf dem Weg in das Semantic Web : Bericht von der SWIB2010 in Köln - unterschiedliche Entwicklungsschwerpunkte (2011) 0.01
    0.011235845 = product of:
      0.07116035 = sum of:
        0.014003496 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.014003496 = score(doc=4532,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 4532) [ClassicSimilarity], result of:
              0.015146374 = score(doc=4532,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 4532, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4532)
          0.5 = coord(1/2)
        0.014003496 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.014003496 = score(doc=4532,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.014003496 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.014003496 = score(doc=4532,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 4532) [ClassicSimilarity], result of:
              0.015146374 = score(doc=4532,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 4532, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4532)
          0.5 = coord(1/2)
        0.014003496 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.014003496 = score(doc=4532,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
      0.15789473 = coord(6/38)
    
    Abstract
    Zum zweiten Mal nach 2009 hat in Köln die Konferenz »Semantic Web in Bibliotheken (SWIB)« stattgefunden. Unter Beteiligung von 120 Teilnehmern aus neun Nationen wurde an zwei Tagen über die Semantic Web-Aktivitäten von in- und ausländischen Einrichtungen, ferner seitens des W3C und der Forschung berichtet. Die Konferenz wurde wie im Vorjahr vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft veranstaltet und war bereits im Vorfeld ausgebucht.
    Content
    "Gegenüber der vorjährigen Veranstaltung war ein deutlicher Fortschritt bei der Entwicklung hin zu einem »Web of Linked Open Data (LOD)« zu erkennen. VertreterInnen aus Einrichtungen wie der Deutschen, der Französischen und der Ungarischen Nationalbibliothek, der Prager Wirtschaftsuniversität, der UB Mannheim, des hbz sowie der ZBW berichteten über ihre Ansätze, Entwicklungen und bereits vorhandenen Angebote und Infrastrukturen. Stand der Entwicklung Im Vordergrund stand dabei zum einen die Transformation und Publikation von semantisch angereicherten Bibliotheksdaten aus den vorhandenen Datenquellen in ein maschinenlesbares RDF-Format zwecks Weiterverarbeitung und Verknüpfung mit anderen Datenbeständen. Auf diese Weise betreibt etwa die Deutsche Nationalbibliothek (DNB) die Veröffentlichung und dauerhafte Addressierbarkeit der Gemeinsamen Normdateien (GND) als in der Erprobungsphase befindlichen LOD-Service. Im Verbund mit anderen internationalen »Gedächtnisinstitutionen« soll dieser Service künftig eine verlässliche Infrastruktur zur Identifikation und Einbindung von Personen, Organisationen oder Konzepten in die eigenen Datenbestände bieten.
    Welchen Nutzen andere Einrichtungen daraus ziehen können, demonstrierte Joachim Neubert von der ZBW bei seiner Vorführung einer LOD-basierten Anwendung für ein digitales Pressearchiv: Verknüpfungen mit entsprechenden Normdatensätzen der DNB ermöglichen das Finden von Personen mit alternativen Namensformen und das Verlinken zu Veröffentlichungen. Durch wechselseitige Verlinkungen, so der die Konferenz einleitende Vortrag von Silke Schomburg (hbz), lassen sich wesentliche Informationen, die von den Bibliotheken innerhalb ihrer jeweiligen Verbünde bislang unabhängig voneinander erfasst werden, austauschen und integrieren - eine wichtige Verbund-Aufgabe. Die ungarische Nationalbibliothek etablierte einen ähnlichen Dienst wie die DNB mit Bezug auf ihre Katalogdaten; unter Übernahme bereits bestehender Komponenten wie Unified Resource Locators (URLs) oder der MARC21-Kodierung der bibliografischen Angaben konnten dabei etablierte Infrastrukturen für LOD genutzt beziehungsweise transformiert werden.
    Einen zweiten Entwicklungsschwerpunkt bildeten Ansätze, die vorhandenen Bibliotheksdaten auf der Basis von derzeit in der Standardisierung befindlichen Beschreibungssprachen wie »Resource Description and Access« (RDA) und Modellierungen wie »Functional Requirements for Bibliograhical Records« (FRBR) so aufzubereiten, dass die Daten durch externe Softwaresysteme allgemein interpretierbar und zum Beispiel in modernen Katalogsystemen navigierbar gemacht werden können. Aufbauend auf den zu Beginn des zweiten Tages vorgetragenen Überlegungen der US-amerikanischen Bibliotheksberaterin Karen Coyle schilderten Vertreter der DNB sowie Stefan Gradmann von der Europeana, wie grundlegende Unterscheidungen zwischen einem Werk (zum Beispiel einem Roman), seiner medialen Erscheinungsform (zum Beispiel als Hörbuch) sowie seiner Manifestation (zum Beispiel als CD-ROM) mithilfe von RDA-Elementen ausgedrückt werden können. Aus der Sicht des World Wide Web Konsortiums (W3C) berichtete Antoine Isaac über die Gründung und Arbeit einer »Library Linked Data Incubator Group«, die sich mit der Inventarisierung typischer Nutzungsfälle und »best practices« für LOD-basierte Anwendungen befasst. Sören Auer von der Universität Leipzig bot einen Überblick zu innovativen Forschungsansätzen, die den von ihm so genannten »Lebenszyklus« von LOD an verschiedenen Stellen unterstützen sollen. Angesprochen wurden dabei verschiedene Projekte unter anderem zur Datenhaltung sowie zur automatischen Verlinkung von LOD.
    Rechtliche Aspekte Dass das Semantische Web speziell in seiner Ausprägung als LOD nicht nur Entwickler und Projektleiter beschäftigt, zeigte sich in zwei weiteren Vorträgen. So erläuterte Stefanie Grunow von der ZBW die rechtlichen Rahmenbedingungen bei der Veröffentlichung und Nutzung von LOD, insbesondere wenn es sich um Datenbankinhalte aus verschiedenen Quellen handelt. Angesichts der durchaus gewünschten, teilweise aber nicht antizipierbaren, Nachnutzung von LOD durch Dritte sei im Einzelfall zu prüfen, ob und welche Lizenz für einen Herausgeber die geeignete ist. Aus der Sicht eines Hochschullehrers reflektierte Günther Neher von der FH Potsdam, wie das Semantische Web und LODTechnologien in der informationswissenschaftlichen Ausbildung an seiner Einrichtung zukünftig berücksichtigt werden könnten.
    Perspektiven Welche Potenziale das Semantic Web schließlich für Wissenschaft und Forschung bietet, zeigte sich in dem Vortrag von Klaus Tochtermann, Direktor der ZBW. Ausgehend von klassischen Wissensmanagement-Prozessen wie dem Recherchieren, der Bereitstellung, der Organisation und der Erschließung von Fachinformationen wurden hier punktuell die Ansätze für semantische Technologien angesprochen. Ein auch für Bibliotheken typischer Anwendungsfall sei etwa die Erweiterung der syntaktisch-basierten Suche um Konzepte aus Fachvokabularen, mit der die ursprüngliche Sucheingabe ergänzt wird. Auf diese Weise können Forschende, so Tochtermann, wesentlich mehr und gleichzeitig auch relevante Dokumente erschließen. Anette Seiler (hbz), die die Konferenz moderiert hatte, zog abschließend ein positives Fazit des - auch in den Konferenzpausen - sehr lebendigen Austauschs der hiesigen und internationalen Bibliotheksszene. Auch das von den Teilnehmern spontan erbetene Feedback fiel außerordentlich erfreulich aus. Per Handzeichen sprach man sich fast einhellig für eine Fortführung der SWIB aus - für Anette Seiler ein Anlass mehr anzukündigen, dass die SWIB 2011 erneut stattfinden wird, diesmal in Hamburg und voraussichtlich wieder Ende November."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib10.de.
  11. Borst, T.; Löhden, A.; Neubert, J.; Pohl, A.: "Linked Open Data" im Fokus : Spannende Themen und Diskussionen bei der SWIB12 (2013) 0.01
    0.01073003 = product of:
      0.06795686 = sum of:
        0.013202622 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3352,freq=48.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 3352) [ClassicSimilarity], result of:
              0.015146374 = score(doc=3352,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 3352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3352)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3352,freq=48.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.013202622 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3352,freq=48.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 3352) [ClassicSimilarity], result of:
              0.015146374 = score(doc=3352,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 3352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3352)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3352,freq=48.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
      0.15789473 = coord(6/38)
    
    Abstract
    Seit 2009 veranstalten die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft (ZBW) und das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) jährlich zusammen die Konferenz »Semantic Web in Bibliotheken« (SWIB). In diesem Jahr fand die SWIB vom 26. bis 28. November in Köln statt und stand unter dem Motto »Towards an International Linked Open Data (LOD) Library Ecosystem«.
    Content
    "In den Keynotes betonte Emmanuelle Bermes (Centre Pompidou) die Wichtigkeit, nicht nur über Technologien, sondern auch mithilfe von Communities, Organisationen oder Standards Brücken im Sinne eines bibliothekarischen LOD-Ökosystems zu bauen; Jon Voss (LODLAM, Historypin) stellte die auf LOD im Kulturerbebereich fokussierte amerikanische Initiative »Linked Open Data in Libraries, Archives, and Museums« (LODLAM) vor. Kevin Ford (Library of Congress) berichtete den brandneuen Stand des BIBFRAME-Projekts, das Bibliotheken und Gedächtnisinstitutionen im »Web of Data« integrieren soll. Die Verfügbarkeit von Bibliografie- und Normdaten als LOD ist inzwischen Realität, nun kommen - so ein Ergebnis der diesjährigen SWIB - auch Institutions- und Nutzungsdaten sowie Forschungsdaten dazu. Die Anreicherung bibliothekarischer Daten hatten mehrere Vorträge zum Inhalt. Das Culturegraph-Projekt der Deutschen Nationalbibliothek unter Mitarbeit des hbz benennt dabei außer der physischen Übertragung und der Verlinkung von Daten als weitere Möglichkeit die Ergänzung des Suchindex. Ein Vorhaben der Florida State University, von GESIS und Biotea befasst sich damit, wissenschaftliche Artikel beziehungsweise ihre Meta-daten aus den Volltexten selbst heraus zu ergänzen (über die Generierung von RDF-Daten aus PDF-Dokumenten). Ein GESIS-Projekt nutzt zur Anreicherung Bibliografie-, Zeitschriften- und Konferenzplattformen.
    Inzwischen geht es nicht mehr nur um die Veröffentlichung von Linked Data, sondern es werden auch erweiterte Services für BibliotheksnutzerInnen vorgestellt. In der Osloer Deichmanske Bibliothek werden Buchrezensionen strukturiert auffindbar gemacht und den Büchern zugeordnet. An den Regalen bietet, vermittelt durch in den Medien enthaltene RFID-Tags, ein Monitor Medieninformationen aus Bibliotheks- und externen Quellen. Beim LOD-Dienst der Französischen Nationalbibliothek können Nutzerinnen nun auch explizit nach Werken, Editionen und einzelnen Exemplaren recherchieren oder nach Personen, die mit einer bestimmten Rolle an einer Ausgabe beteiligt sind. Bei der Recherche über Themen werden zu einem Stichwort feinere oder gröbere Themen vorgeschlagen. Die semantische Verknüpfung von Termen verbessert die bibliothekarische Erschließung und Recherche, die Anreicherung von Ressourcen sowie Gestaltung von Oberflächen über verschiedene Begriffssysteme und Sprachen hinweg. Mit automatischen Verfahren zur Pflege von Crosskonkordanzen zwischen Thesauri befasst sich unter anderem die »Ontology Alignment Evaluation Initiative« (OAEI), hier wurden Unterschiede von Ontologie-Werkzeugen und Formaten (SKOS, OWL) betrachtet. Ein noch bestehender Mangel an Mehrsprachigkeit von Ontologien und Formaten wurde zum Beispiel im Vortrag der Ontology Engineering Group der Polytechnischen Universität Madrid (OEG-UPM) angedeutet.
    Metadaten verschiedener Quellen Die Dokumentation der Provenienz ist nicht nur für Medien wichtig, sondern - insbesondere wenn Metadaten verschiedener Quellen zusammengeführt werden - auch für die Metadaten selbst. Werden bibliothekarische Metadaten mit Daten aus Web2.0-Quellen angereichert (oder umgekehrt), so sollte mindestens zwischen der Herkunft aus Kulturerbeinstitutionen und Web2.0-Plattformen unterschieden werden. Im Provenance-Workshop wurden verschiedene Vokabulare zur Darstellung der Provenienz von Ressourcen und Metadaten diskutiert. Einen allgemein akzeptierten Ansatz für Linked Data scheint es bisher nicht zu geben - die verfügbaren Ansätze seien teils komplex, sodass auf Metadaten operierende Applikationen speziell auf sie ausgerichtet sein müssten, oder aber unterstützten nicht gut mehrfache Metaaussagen wie zum Beispiel verschachtelte Quellen. Daher empfehle sich eine fallweise pragmatische Vorgehensweise. Dass der Workshop zum Thema Provenance innerhalb weniger Tage ausgebucht war, weist ebenfalls auf die Aktualität des Themas hin. Um für die verschiedensprachigen Wikipedia-Artikel die Datenpflege zu erleichtern, sammelt Wikidata deren Fakten und stellt sie als Datenbasis bereit. Die sogenannten Claims von Wikidata enthalten neben den - über die lokalen Wikipedias divergierenden - Aussagen auch ihre Quellen und Zeitkontexte. Auf die Darstellung der Rechte und Lizenzen der veröffentlichten Bestände an Linked Data wurde mehrfach eingegangen, zum Beispiel in den Vorträgen der Universitätsbibliothek von Amsterdam und der OEG-UPM. Neben den bibliotheksspezifischen Formaten und Schnittstellen trägt auch dies zur Abschottung beziehungsweise Öffnung von Bibliotheksdaten bei. Im Kontext der »Europeana« wird an der Darstellung von Ressourcen-Lizenzen gearbeitet, mithilfe von URLs werden Ressource- und Lizenzinformationen dynamisch zusammen angezeigt."
  12. Corporate Semantic Web : wie semantische Anwendungen in Unternehmen Nutzen stiften (2015) 0.01
    0.010283068 = product of:
      0.0651261 = sum of:
        0.011917624 = weight(_text_:und in 2246) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2246,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2246, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
        0.011917624 = weight(_text_:und in 2246) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2246,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2246, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
        0.014438409 = sum of:
          0.005386828 = weight(_text_:4 in 2246) [ClassicSimilarity], result of:
            0.005386828 = score(doc=2246,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.11992966 = fieldWeight in 2246, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.03125 = fieldNorm(doc=2246)
          0.009051581 = weight(_text_:29 in 2246) [ClassicSimilarity], result of:
            0.009051581 = score(doc=2246,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.15546128 = fieldWeight in 2246, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.03125 = fieldNorm(doc=2246)
        0.011917624 = weight(_text_:und in 2246) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2246,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2246, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
        0.011917624 = weight(_text_:und in 2246) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2246,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2246, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
        0.0030171936 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 2246) [ClassicSimilarity], result of:
              0.009051581 = score(doc=2246,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 2246, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2246)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Beim Corporate Semantic Web betrachtet man Semantic Web-Anwendungen, die innerhalb eines Unternehmens oder einer Organisation - kommerziell und nicht kommerziell - eingesetzt werden, von Mitarbeitern, von Kunden oder Partnern. Die Autoren erläutern prägende Erfahrungen in der Entwicklung von Semantic Web-Anwendungen. Sie berichten über Software-Architektur, Methodik, Technologieauswahl, Linked Open Data Sets, Lizenzfragen etc. Anwendungen aus den Branchen Banken, Versicherungen, Telekommunikation, Medien, Energie, Maschinenbau, Logistik, Touristik, Spielwaren, Bibliothekswesen und Kultur werden vorgestellt. Der Leser erhält so einen umfassenden Überblick über die Semantic Web-Einsatzbereiche sowie konkrete Umsetzungshinweise für eigene Vorhaben.
    Content
    Kapitel 1; Corporate Semantic Web; 1.1 Das Semantic Web; 1.2 Semantische Anwendungen im Unternehmenseinsatz; 1.3 Bereitstellen von Linked Data reicht nicht; 1.4 Eine global vernetzte Wissensbasis -- Fiktion oder Realität?; 1.5 Semantik)=)RDF?; 1.6 Richtig vorgehen; 1.7 Modellieren ist einfach (?!); 1.8 Juristische Fragen; 1.9 Semantische Anwendungen stiften Nutzen in Unternehmen -- nachweislich!; 1.10 Fazit; Literatur; Kapitel 2; Einordnung und Abgrenzung des Corporate Semantic Webs; 2.1 Grundlegende Begriffe; 2.2 Corporate Semantic Web 2.3 Public Semantic Web2.4 Social Semantic Web 3.0; 2.5 Pragmatic Web; 2.6 Zusammenfassung und Ausblick "Ubiquitous Pragmatic Web 4.0"; Literatur; Kapitel 3; Marktstudie: Welche Standards und Tools werden in Unternehmen eingesetzt?; 3.1 Einleitung; 3.2 Semantische Suche in Webarchiven (Quantinum AG); 3.2.1 Kundenanforderungen; 3.2.2 Technische Umsetzung; 3.2.3 Erfahrungswerte; 3.3 Semantische Analyse und Suche in Kundenspezifikationen (Ontos AG); 3.3.1 Kundenanforderungen; 3.3.2 Technische Umsetzung; 3.3.3 Erfahrungswerte 3.4 Sicherheit für Banken im Risikomanagement (VICO Research & Consulting GmbH)3.4.1 Kundenanforderungen; 3.4.2 Technische Umsetzung; 3.4.3 Erfahrungswerte; 3.5 Interaktive Fahrzeugdiagnose (semafora GmbH); 3.5.1 Kundenanforderungen; 3.5.2 Technische Umsetzung; 3.5.3 Erfahrungswerte; 3.6 Quo Vadis?; 3.7 Umfrage-Ergebnisse; 3.8 Semantic Web Standards & Tools; 3.9 Ausblick; Literatur; Kapitel 4; Modellierung des Sprachraums von Unternehmen; 4.1 Hintergrund; 4.2 Eine Frage der Bedeutung; 4.3 Bedeutung von Begriffen im Unternehmenskontext; 4.3.1 Website-Suche bei einem Industrieunternehmen 4.3.2 Extranet-Suche bei einem Marktforschungsunternehmen4.3.3 Intranet-Suche bei einem Fernsehsender; 4.4 Variabilität unserer Sprache und unseres Sprachgebrauchs; 4.4.1 Konsequenzen des Sprachgebrauchs; 4.5 Terminologiemanagement und Unternehmensthesaurus; 4.5.1 Unternehmensthesaurus; 4.5.2 Mut zur Lücke: Arbeiten mit unvollständigen Terminologien; 4.6 Pragmatischer Aufbau von Unternehmensthesauri; 4.6.1 Begriffsanalyse des Anwendungsbereichs; 4.6.2 Informationsquellen; 4.6.3 Häufigkeitsverteilung; 4.6.4 Aufwand und Nutzen; Literatur; Kapitel 5 Schlendern durch digitale Museen und Bibliotheken5.1 Einleitung; 5.2 Anwendungsfall 1: Schlendern durch das Digitale Museum; 5.3 Anwendungsfall 2: Literatur in Bibliotheken finden; 5.4 Herausforderungen; 5.5 Die Anforderungen treiben die Architektur; 5.5.1 Semantic ETL; 5.5.2 Semantic Logic; 5.5.3 Client; 5.6 Diskussion; 5.7 Empfehlungen und Fazit; Literatur; Kapitel 6; Semantische Suche im Bereich der Energieforschungsförderung; 6.1 Das Projekt EnArgus®; 6.2 Die Fachontologie; 6.2.1 Semantische Suche; 6.2.2 Repräsentation der semantischen Relationen in der Fachontologie
    Date
    29. 9.2015 19:11:44
  13. Grabsch, S.; Jürgens, M.: ¬Der Digitale Wissensspeicher der Berlin-Brandenburgischen Akademie der Wissenschaften : Möglichkeiten und Herausforderungen der Verknüpfung heterogener geisteswissenschaftlicher Inhalte und Metadaten (2017) 0.01
    0.0101249935 = product of:
      0.064124964 = sum of:
        0.013202622 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3508,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3508, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3508)
        0.013202622 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3508,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3508, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3508)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 3508) [ClassicSimilarity], result of:
              0.013577371 = score(doc=3508,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 3508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3508)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3508,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3508, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3508)
        0.013202622 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.013202622 = score(doc=3508,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 3508, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3508)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 3508) [ClassicSimilarity], result of:
              0.013577371 = score(doc=3508,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 3508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3508)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  14. Berners-Lee, T.; Hendler, J.; Lassila, O.: Mein Computer versteht mich (2001) 0.01
    0.010051199 = product of:
      0.0636576 = sum of:
        0.007186597 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007186597 = score(doc=4550,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
        0.007186597 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007186597 = score(doc=4550,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
        0.028876819 = sum of:
          0.010773656 = weight(_text_:4 in 4550) [ClassicSimilarity], result of:
            0.010773656 = score(doc=4550,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.23985931 = fieldWeight in 4550, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0625 = fieldNorm(doc=4550)
          0.018103162 = weight(_text_:29 in 4550) [ClassicSimilarity], result of:
            0.018103162 = score(doc=4550,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.31092256 = fieldWeight in 4550, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=4550)
        0.007186597 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007186597 = score(doc=4550,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
        0.007186597 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007186597 = score(doc=4550,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 4550) [ClassicSimilarity], result of:
              0.018103162 = score(doc=4550,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 4550, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4550)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Was wäre, wenn der Computer den Inhalt einer Seite aus dem World Wide Web nicht nur anzeigen, sondern auch seine Bedeutung erfassen würde? Er könnte ungeahnte Dinge für seinen Benutzer tun - und das vielleicht schon bald, wenn das semantische Netz etabliert ist
    Date
    31.12.1996 19:29:41
    4. 9.2008 15:25:44
  15. Wenige, L.: ¬The application of linked data resources for library recommender systems (2017) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 3500) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3500,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3500, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3500)
        0.012576545 = weight(_text_:und in 3500) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3500,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3500, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3500)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3500) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3500,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3500, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3500)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 3500) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3500,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3500, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3500)
        0.012576545 = weight(_text_:und in 3500) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3500,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3500, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3500)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3500) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3500,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3500, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3500)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  16. Kushwaha, N.; Vyas, O.P.: SemMovieRec : extraction of semantic features of DBpedia for recommender system (2017) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 3501) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3501,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3501, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3501)
        0.012576545 = weight(_text_:und in 3501) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3501,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3501, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3501)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3501) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3501,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3501, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3501)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 3501) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3501,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3501, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3501)
        0.012576545 = weight(_text_:und in 3501) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3501,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3501, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3501)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3501) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3501,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3501, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3501)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  17. De Luca, E.W.: Using multilingual lexical resources for extending the linked data cloud (2017) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 3506) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3506,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3506)
        0.012576545 = weight(_text_:und in 3506) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3506,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3506)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3506) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3506,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3506)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 3506) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3506,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3506)
        0.012576545 = weight(_text_:und in 3506) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3506,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3506)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3506) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3506,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3506)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  18. Stahn, L.-L.: Vocabulary alignment für archäologische KOS (2017) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 3511) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3511,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3511, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3511)
        0.012576545 = weight(_text_:und in 3511) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3511,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3511, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3511)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3511) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3511,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3511, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3511)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 3511) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3511,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3511, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3511)
        0.012576545 = weight(_text_:und in 3511) [ClassicSimilarity], result of:
          0.012576545 = score(doc=3511,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 3511, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3511)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 3511) [ClassicSimilarity], result of:
              0.015840266 = score(doc=3511,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 3511, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3511)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  19. Schäfer, D.: Konzeption, prototypische Implementierung und Evaluierung eines RDF-basierten Bibliothekskatalogs für Online-Dissertationen (2008) 0.01
    0.009597299 = product of:
      0.060782894 = sum of:
        0.007622537 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007622537 = score(doc=2293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 2293) [ClassicSimilarity], result of:
              0.030292748 = score(doc=2293,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 2293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2293)
          0.5 = coord(1/2)
        0.007622537 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007622537 = score(doc=2293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.007622537 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007622537 = score(doc=2293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 2293) [ClassicSimilarity], result of:
              0.030292748 = score(doc=2293,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 2293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2293)
          0.5 = coord(1/2)
        0.007622537 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007622537 = score(doc=2293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
      0.15789473 = coord(6/38)
    
    Abstract
    In dieser Diplomarbeit geht es um die semantische Suche innerhalb bibliothekarischer Metadaten. Die Umsetzung dieses Vorhabens wird ermöglichst durch die Entwicklung in dem Bereich des Semantischen Webs, die durch das W3C Semantic Web Activity vorangetrieben wird. Diese Arbeit basiert auf den Empfehlungen und Arbeitsentwürfen unterschiedlicher Technologien dieser Gruppe, deren Kombination schließlich ein Semantisches Web ermöglicht. Da die Thematik des Semantischen Webs schwer zu greifen ist, werden die Komponenten, die in dieser Arbeit eine Rolle spielen, ausführlich erkäutert. Im Anschluss daran werden die Anforderungen an eine semantische Suche innerhalb bibliothekarischer Metadaten dargestellt, um dann ein Konzept zur Lösung zu erläutern. Die Zielsetzung dieser Arbeit ist die Umsetzung der Konzepte des Semantischen Webs innerhalb einer prototypischen Implementierung mit einem umfangreichen Datensatz. Hier wurden die Metadaten der elektronischen Dissertationen innerhalb der Deutschen Nationalbibliothek zusammen mit Daten eines Klassifikationssystems verwendet.
    Theme
    Katalogfragen allgemein
  20. Borst, T.; Fingerle, B.; Neubert, J.; Seiler, A.: Auf dem Weg in das Semantic Web : Anwendungsbeispiele und Lösungsszenarien in Bibliotheken / Eine Veranstaltung von hbz und ZBW (2010) 0.01
    0.009498449 = product of:
      0.060156845 = sum of:
        0.011883717 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.011883717 = score(doc=4398,freq=56.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.0063109896 = product of:
          0.012621979 = sum of:
            0.012621979 = weight(_text_:allgemein in 4398) [ClassicSimilarity], result of:
              0.012621979 = score(doc=4398,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.1451322 = fieldWeight in 4398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4398)
          0.5 = coord(1/2)
        0.011883717 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.011883717 = score(doc=4398,freq=56.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.011883717 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.011883717 = score(doc=4398,freq=56.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.0063109896 = product of:
          0.012621979 = sum of:
            0.012621979 = weight(_text_:allgemein in 4398) [ClassicSimilarity], result of:
              0.012621979 = score(doc=4398,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.1451322 = fieldWeight in 4398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4398)
          0.5 = coord(1/2)
        0.011883717 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.011883717 = score(doc=4398,freq=56.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
      0.15789473 = coord(6/38)
    
    Abstract
    Unter dem Motto »Fachtagung für innovative Bibliothekare« hat am 24. und 25. November 2009 in Köln erstmals die Veranstaltung »Semantic Web in Bibliotheken - SWIB09« stattgefunden. Die international besetzte Tagung wurde vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) gemeinsam ausgerichtet, um Bibliotheken das »Semantic Web« näher zu bringen. Die aus Platzgründen auf rund 100 am ersten Tag und 60 am zweiten Tag begrenzten Teilnehmerplätze waren rasch ausgebucht. Während der erste Tag eine Einführung und erste Anwendungsbeispiele bot, die das Potenzial von Semantic Web-Anwendungen zeigten, vermittelte der zweite Tag anhand praxisnaher Beispiele Anforderungen und Lösungsszenarien für Bibliotheken.
    Content
    "In seinem Einführungsvortrag skizzierte Jakob Voß, Software-Entwickler bei der Verbundzentrale (VZG), anhand von herkömmlichen bibliothekarischen Katalogeinträgen den für das Semantic Web typischen Wandel weg von einem Web vernetzter Dokumente hin zu einem Web vernetzter Daten. Die Nutzung vorhandener Standards sollte diesen Wandel begleiten. Einen dieser Standards könnte die »Bibliographic Ontology« (bibo) darstellen, die auf existierenden Ontologien wie Dublin Core basiert und die Voß in einem weiteren Vortrag vorstellte. Dabei warf er die provozierende Frage auf, ob die bibo die Nachfolge bibliografischer Datenformate antreten werde. Lars G. Svensson, IT-Manager an der Deutschen Nationalbibliothek (DNB), stellte hingegen nicht bibo, sondern «Resource Description and Access« (RDA) ins Zentrum der DNB-Planungen. »Fünf gute Gründe«, warum sich kulturelle Einrichtungen mit dem Semantic Web beschäftigen sollten, benannte Professor Stefan Gradmann, Inhaber des Lehrstuhls für Wissensmanagement an der Humboldt-Universität zu Berlin. Die Beschäftigung sei unter anderem erforderlich, damit diese Einrichtungen zukünftig überhaupt noch wahrgenommen werden. Andererseits könnten sie durch die Verknüpfung von bibliothekarischen Meta-daten und Kontextdaten (wie Personennormdaten) einen spezifischen Beitrag zum Semantic Web leisten.
    Auch Bernhard Haslhofer, Assistent am Lehrgebiet für Verteilte Multimediasysteme an der Universität Wien, sieht ein großes Potenzial darin, klassische Mechanismen der Informationsorganisation durch Bibliotheken als »Linked Open Data« in das Semantic Web einzubringen. Sie könnten möglicherweise sogar Baustein einer freien und community-getriebenen Alternative zu konzerngetriebenen Anwendungen wie Google Books sein. Voraussetzung sei allerdings, dass Bibliotheken nicht an ihren Datenbeständen in Form geschlossener Datensilos festhalten. Dazu passte das leidenschaftliche Plädoyer für Free Data von Patrick Danowski, Emerging Technologies Librarian am CERN: Die ganze Mächtigkeit seiner Netzwerkeffekte könne Linked Data nur entfalten, wenn die Daten unter einer freien Lizenz veröffentlicht werden, wobei Danowski für eine Bereitstellung als »public domain« plädiert. Mehrere Beiträge zeigten, dass mit Linked Data mittlerweile eine geeignete Technologie vorliegt, um das Semantic Web für Bibliotheken Wirklichkeit werden zu lassen. Ed Summers, Software-Entwickler bei der Library of Congress (LoC) und zuständig für einen der bislang größten Linked Data-Bestände aus Bibliotheken, die LoC Subject Headings, verwies in seinem Vortrag auf die vielfältigen Verknüpfungsmöglichkeiten und Anwendungen von Linked Data. So können Schlagworte aus verschiedenen Vokabularen in Beziehung gesetzt werden und Presseartikel mit »Flickr«Bildern und Geokoordinaten verknüpft werden, die das Ereignis bebildern beziehungsweise räumlich verorten.
    Moderne Web-Anwendungen Wie ein klassischer Bibliothekskatalog in eine moderne Web-Anwendung und in Linked Open Data überführt werden kann, berichtete Anders Söderbäck von der Schwedischen Nationalbibliothek. Unter dem Thema »Linked Applications« entwarf Felix Ostrowski, IT-Entwickler beim hbz, eine tiefe Integration von Ontologien direkt in die verwendete Programmiersprache am Beispiel von Repository Software. Andre Hagenbruch, Mitarbeiter der Universitätsbibliothek Bochum, stellte ein Projekt für ein Linked Data-basiertes Bibliotheksportal vor, das neben bibliografischen Daten auch administrative Informationen wie Personaldaten oder Öffnungszeiten integrieren soll. Interessante Einblicke bot Jürgen Kett von der DNB zur hauseigenen Linked Data-Strategie. Dazu gehört die Veröffentlichung der Personennamendatei (PND) zwecks kostenfreier Weiterverwendung durch andere Bibliotheken. In einem weiteren Vortrag gingen Kett und sein Kollege Svensson auf Details ihres aktuellen Linked Data-Projekts ein, das in einer ersten Stufe URI- und SPARQL-Zugriff auf die SWDund PND-Datensets sowie ihre Verknüpfungen zu internationalen Normdatenbeständen ermöglichen soll. Ein Beta-Dienst soll bis Mitte 2010 online gehen. Timo Borst, Leiter der IT-Entwicklung der ZBW, griff dies auf und demonstrierte die Integration von Thesaurus-und Personennormdaten in den ZBW-Dokumentenserver. Als technischer Zugangspunkt für Linked Data wurde dabei auch ein experimenteller SPARQLEndpoint der DNB genutzt, dessen Abfrage eine automatische Vorschlagsfunktion für PND-Einträge ermöglicht. Praktische Erfahrungen aus den Linked Data-Projekten der ZBW fasste Joachim Neubert, IT-Entwickler bei der ZBW, zusammen, verbunden mit Hinweisen zu Tools, Communities und Best Practice-Beispielen im Web.
    Einen Einblick in Ontologien, die eine wesentliche Säule des Semantic Web bilden, ihren Zusammenhang mit natürlicher Sprache und ihre Nutzungsmöglichkeiten gab Elena Semanova, Forscherin und selbstständige Ontologie-Expertin. Aus dem Museumsbereich stellte Karin Teichmann (Leiterin der Grafischen Sammlung im Deutschen Buch- und Schriftmuseum der DNB) das als ISO-Standard vorliegende »CIDOC Conceptual Reference Model« vor, das unterschiedlich strukturierte Informationen durch ein übergreifendes Meta-Modell zusammenführen kann. Professor Stefan Gradmann und Marlies Olensky, Forscherin an der HU Berlin, präsentierten die semantische Datenschicht der Europeana, die den W3C-Standard SKOS und Linked Data nutzt, um Benutzeranfragen, Browsing und Ergebnispräsentation zu unterstützen. Über die umfassenden Linked Data-Aktivitäten innerhalb der DBPedia, einer Semantic Web-Version der Wikipedia, berichtete Anja Jentzsch, Forscherin an der Freien Universität Berlin. Neben der Infrastruktur für Linked Data veranschaulichte sie die Integration von DBPediaDaten in Browser-, Such- und Portaloberflächen. Eine von Jürgen Kett moderierte Abschlussrunde sammelte Stichpunkte zur Frage »Wie geht es weiter?« Um den Austausch fortzuführen, wurde unter anderem eine Kommunikationsplattform vorgeschlagen, die im Umfeld der Semantic Web-Aktivitäten des W3C angesiedelt ist. Allgemein war der Wunsch nach einer Neuauflage der Tagung in 2010 zu hören."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib09.de.

Authors

Years

Languages

  • e 101
  • d 86

Types

  • a 126
  • el 32
  • m 30
  • s 16
  • x 11
  • n 3
  • r 3
  • More… Less…

Subjects

Classifications