Search (188 results, page 1 of 10)

  • × theme_ss:"Semantic Web"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.07
    0.07440737 = product of:
      0.3813378 = sum of:
        0.017333535 = product of:
          0.052000605 = sum of:
            0.052000605 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.052000605 = score(doc=701,freq=2.0), product of:
                0.1387872 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016370254 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052000605 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052000605 = score(doc=701,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.19512194 = coord(8/41)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.02
    0.019087346 = product of:
      0.11179731 = sum of:
        0.01800991 = weight(_text_:medizin in 167) [ClassicSimilarity], result of:
          0.01800991 = score(doc=167,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.2062598 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.01800991 = weight(_text_:medizin in 167) [ClassicSimilarity], result of:
          0.01800991 = score(doc=167,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.2062598 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.014913368 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.014913368 = score(doc=167,freq=46.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.028706497 = weight(_text_:einzelner in 167) [ClassicSimilarity], result of:
          0.028706497 = score(doc=167,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.26040477 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.014913368 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.014913368 = score(doc=167,freq=46.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.0023308892 = product of:
          0.0046617785 = sum of:
            0.0046617785 = weight(_text_:4 in 167) [ClassicSimilarity], result of:
              0.0046617785 = score(doc=167,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.10493845 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=167)
          0.5 = coord(1/2)
        0.014913368 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.014913368 = score(doc=167,freq=46.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.17073171 = coord(7/41)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
  3. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.02
    0.017249275 = product of:
      0.10103147 = sum of:
        0.020582754 = weight(_text_:medizin in 132) [ClassicSimilarity], result of:
          0.020582754 = score(doc=132,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.23572549 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.020582754 = weight(_text_:medizin in 132) [ClassicSimilarity], result of:
          0.020582754 = score(doc=132,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.23572549 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.013297433 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013297433 = score(doc=132,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.0099868355 = product of:
          0.019973671 = sum of:
            0.019973671 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.019973671 = score(doc=132,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
        0.013297433 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013297433 = score(doc=132,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.013297433 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.013297433 = score(doc=132,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.0099868355 = product of:
          0.019973671 = sum of:
            0.019973671 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.019973671 = score(doc=132,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
      0.17073171 = coord(7/41)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Marcondes, C.H.: Representing and organizing scientific knowledge in biomedical articles with Semantic Web technologies (2017) 0.02
    0.017149571 = product of:
      0.11718874 = sum of:
        0.03601982 = weight(_text_:medizin in 3503) [ClassicSimilarity], result of:
          0.03601982 = score(doc=3503,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.4125196 = fieldWeight in 3503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.03601982 = weight(_text_:medizin in 3503) [ClassicSimilarity], result of:
          0.03601982 = score(doc=3503,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.4125196 = fieldWeight in 3503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.012438609 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012438609 = score(doc=3503,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.012438609 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012438609 = score(doc=3503,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
        0.007833267 = product of:
          0.015666533 = sum of:
            0.015666533 = weight(_text_:29 in 3503) [ClassicSimilarity], result of:
              0.015666533 = score(doc=3503,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.27205724 = fieldWeight in 3503, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3503)
          0.5 = coord(1/2)
        0.012438609 = weight(_text_:und in 3503) [ClassicSimilarity], result of:
          0.012438609 = score(doc=3503,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 3503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3503)
      0.14634146 = coord(6/41)
    
    Field
    Medizin
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  5. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.02
    0.016651878 = product of:
      0.08534088 = sum of:
        0.01314068 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.01314068 = score(doc=1847,freq=70.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.006241773 = product of:
          0.012483546 = sum of:
            0.012483546 = weight(_text_:allgemein in 1847) [ClassicSimilarity], result of:
              0.012483546 = score(doc=1847,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1451322 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.028997941 = weight(_text_:einzelner in 1847) [ClassicSimilarity], result of:
          0.028997941 = score(doc=1847,freq=4.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.26304853 = fieldWeight in 1847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.01314068 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.01314068 = score(doc=1847,freq=70.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.001664921 = product of:
          0.003329842 = sum of:
            0.003329842 = weight(_text_:4 in 1847) [ClassicSimilarity], result of:
              0.003329842 = score(doc=1847,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.07495604 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.01314068 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.01314068 = score(doc=1847,freq=70.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.006241773 = product of:
          0.012483546 = sum of:
            0.012483546 = weight(_text_:allgemein in 1847) [ClassicSimilarity], result of:
              0.012483546 = score(doc=1847,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1451322 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.0027724293 = product of:
          0.0055448585 = sum of:
            0.0055448585 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
              0.0055448585 = score(doc=1847,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.09672529 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
      0.19512194 = coord(8/41)
    
    Abstract
    LibraryThing ist eine zur Klasse der Sozialen Software gehörende Webanwendung, in der Benutzer gemeinsam Bücher verwalten und miteinander in Kontakt treten können. Die Webseite wurde Ende August 2005 veröffentlicht und verzeichnet inzwischen (Juli 2007) über 235.000 Benutzer und 16 Millionen verschiedene Bücher. Jeder Nutzer verfügt über eine eigene Sammlung, die in LibraryThing als "Bibliotheken" oder "Katalog" bezeichnet wird. Die Katalogisierung geschieht in eine gemeinsame Datenbank, die von allen Nutzern direkt bearbeitet werden kann. Da es sich um eine reine Webanwendung handelt, muss zur Nutzung keine weitere Software installiert werden. Die Nutzung ist für bis zu 200 Medien kostenlos, eine jährliche Mitgliedschaft kostet 10 $ und eine lebenslange Mitgliedschaft 25 $. Bibliotheken und andere nichtkommerzielle Einrichtungen zahlen 15 $ pro Jahr. Dieses Preismodell hat sich auch nicht geändert, nachdem 40% des Unternehmens im Mai 2006 vom Gebrauchtbuchhändler AbeBooks übernommen wurden. Die Mehrheit hält weiterhin der Gründer Tim Spalding, der die ursprünglich als privates Projekt begonnene Seite mit inzwischen zwei weiteren Entwicklern und einer Bibliothekarin kontinuierlich weiterentwickelt.
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
    Source
    Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2007, H.137, S.12-13
    Theme
    Katalogfragen allgemein
  6. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.01
    0.011905275 = product of:
      0.09762325 = sum of:
        0.025728444 = weight(_text_:medizin in 3337) [ClassicSimilarity], result of:
          0.025728444 = score(doc=3337,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.29465687 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.025728444 = weight(_text_:medizin in 3337) [ClassicSimilarity], result of:
          0.025728444 = score(doc=3337,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.29465687 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.015388789 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.015388789 = score(doc=3337,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.015388789 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.015388789 = score(doc=3337,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.015388789 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.015388789 = score(doc=3337,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.12195122 = coord(5/41)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
    Source
    GMS Medizin - Bibliothek - Information. 16(2016) Nr.3, 11 S. [http://www.egms.de/static/pdf/journals/mbi/2017-16/mbi000372.pdf]
  7. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.01
    0.011779951 = product of:
      0.08049633 = sum of:
        0.012165906 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.012165906 = score(doc=641,freq=60.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.012165906 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.012165906 = score(doc=641,freq=60.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.0023545537 = product of:
          0.0047091073 = sum of:
            0.0047091073 = weight(_text_:4 in 641) [ClassicSimilarity], result of:
              0.0047091073 = score(doc=641,freq=4.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.10600384 = fieldWeight in 641, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=641)
          0.5 = coord(1/2)
        0.012165906 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.012165906 = score(doc=641,freq=60.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.013881355 = product of:
          0.02776271 = sum of:
            0.02776271 = weight(_text_:insgesamt in 641) [ClassicSimilarity], result of:
              0.02776271 = score(doc=641,freq=6.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.28484333 = fieldWeight in 641, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=641)
          0.5 = coord(1/2)
        0.02776271 = weight(_text_:insgesamt in 641) [ClassicSimilarity], result of:
          0.02776271 = score(doc=641,freq=6.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.28484333 = fieldWeight in 641, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
      0.14634146 = coord(6/41)
    
    Abstract
    Das vorliegende Werk ist der erste Band in der Reihe "Branchenreports" der Semantic Web School. Diese Reihe, die in Zusammenarbeit mit Branchenexperten entwickelt wurde, verfolgt das Ziel, in regelmäßigen Abständen die Bedeutung semantischer Technologien in ausgewählten Branchen und Communities zu analysieren und zu durchleuchten. Damit sollen dem interessierten Leser in erster Linie ein Überblick und Einstiegspunkte geboten werden: Die Branchenreports helfen, sich in einem emergenten Umfeld besser orientieren zu können, sie zeigen Entwicklungspfade an, entlang welcher sich Branchen bewegen, die vermehrt auf den Einsatz semantischer Informationstechnologien setzen. Dieser Branchenreport beschäftigt sich mit dem Bibliotheks-, Informationsund Dokumentationswesen (BID) und es ist kein Zufall, dass diese Branche als erste durchleuchtet wird, sind doch hier die Wurzeln der professionellen Wissensorganisation zu finden. Nun, im Zeitalter der Digitalisierung und des Internets, steht diese Community vor neuen, großen Herausforderungen und Möglichkeiten. Gerade im Umfeld des Semantic Web zeigt sich, dass die Erfahrungen aus dem BID-Bereich einen wichtigen Beitrag leisten können, soll die Entwicklung des Internets der nächsten Generation nicht nur von der Technik geprägt werden. Dieser Band möchte die Neugierde all jener wecken, die sich vor neuen Technologien nicht verschließen, und darauf aufmerksam machen, dass die Möglichkeiten, Information und Wissen zu organisieren, im 21. Jahrhundert gänzlich neue sein werden.
    Content
    Inhaltsverzeichnis 1. Einleitung 2. Bibliothekspolitik 3. Begriffsdefinitionen 3.1. Bibliothek - 3.2. Archiv - 3.3. Museum - 3.4. Information und Dokumentation - 3.5. Information - 3.6. Semantik und semantische Technologien - 3.7. Ontologie - 3.8. Recall und Precision 4. Bibliotheken aus statistischer Sicht - Kennzahlen 5. Bibliographische Tools 5.1. Austauschformate 5.1.1. MAB / MAB2 - 5.1.2. Allegro-C - 5.1.3. MARC 2 - 5.1.4. Z39.50 - 5.1.5. Weitere Formate 5.2. Kataloge / OPACs 5.2.1. Aleph 500 - 5.2.2. Allegro-C - 5.2.3. WorldCat beta 5.3. Dokumentationssysteme 5.4. Suchmaschinen 5.4.1. Convera und ProTerm - 5.4.2. APA Online Manager - 5.4.3. Google Scholar - 5.4.4. Scirus - 5.4.5. OAIster - 5.4.6. GRACE 5.5. Informationsportale 5.5.1. iPort - 5.5.2. MetaLib - 5.5.3. Vascoda - 5.5.4. Dandelon - 5.5.5. BAM-Portal - 5.5.6. Prometheus 6. Semantische Anreicherung 6.1. Indexierung - 6.2. Klassifikation - 6.3. Thesauri 38 - 6.4. Social Tagging 7. Projekte 7.1. Bibster - 7.2. Open Archives Initiative OAI - 7.3. Renardus - 7.4. Perseus Digital Library - 7.5. JeromeDL - eLibrary with Semantics 8. Semantische Technologien in BAM-InstitutionenÖsterreichs 8.1. Verbundkatalog des Österreichischen Bibliothekenverbunds - 8.2. Bibliotheken Online - WebOPAC der Öffentlichen Bibliotheken - 8.3. Umfrage-Design - 8.4. Auswertung 9. Fazit und Ausblick 10. Quellenverzeichnis 11. Web-Links 12. Anhang Vgl.: http://www.semantic-web.at/file_upload/1_tmpphp154oO0.pdf.
    Date
    4. 2.2007 17:16:21
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.
    Danach kommt das Werk - leider nur auf acht Seiten - zu seinem thematischen Kern. Die Frage, ob, in welchem Ausmaß und welche semantischen Technologien im BID-%BAM-Bereich eingesetzt werden, sollte eigentlich mit einer schriftlichen Befragung einschlägiger Institutionen verfolgt werden. Jedoch konnte dieses Ziel wegen des geringen Rücklaufs nur sehr eingeschränkt erreicht werden: im ersten Versuch antworteten sechs Personen aus insgesamt 65 angeschriebenen Institutionen. Beim zweiten Versuch mit einem deutlich abgespeckten Fragekatalog kamen weitere fünf Antworten dazu. Ausschlaggebend für die geringe Resonanz dürfte eine Mischung aus methodischen und inhaltlichen Faktoren gewesen sein: Eine schriftliche Befragung mit vorwiegend offenen Fragen durchzuführen, ist ohnehin schon ein Wagnis. Wenn diese Fragen dann auch noch gleichermaßen komplex wie voraussetzungsvoll sind, dann ist ein unbefriedigender Rücklauf keine Überraschung. Nicht zuletzt mag sich hier die Mutmaßung des Autors aus seinem Vorwort bewahrheiten und ihm zugleich zum Verhängnis geworden sein, nämlich dass "der Begriff 'Semantik' vielen Bibliothekaren und Dokumentaren noch nicht geläufig (ist)" - wie sollen sie dann aber Fragen dazu beantworten? Beispielhaft sei dafür die folgende angeführt: "Welche Erwartungen, Perspektiven, Prognosen, Potentiale, Paradigmen verbinden Sie persönlich mit dem Thema ,Semantische Technologien'?" Am Ende liegt der Wert der Untersuchung sicher vor allem darin, eine grundlegende Annahme über den Status quo in der fraglichen Branche zu bestätigen: dass semantische Technologien dort heute noch eine geringe Rolle und künftig schon eine viel größere spielen werden. Insgesamt gewinnt man den Eindruck, dass hier zum Hauptgegenstand geworden ist, was eigentlich nur Rahmen sein sollte. Die Publikation (auch der Anhang) wirkt streckenweise etwas mosaiksteinartig, das eigentlich Interessierende kommt zu kurz. Gleichwohl besteht ihr Verdienst darin, eine Annäherung an ein Thema zu geben, das in den fraglichen Institutionen noch nicht sehr bekannt ist. Auf diese Weise mag sie dazu beitragen, semantische Technologien im Bewusstsein der beteiligten Akteure stärker zu verankern. Das hier besprochene Werk ist der erste Band einer Publikationsreihe der Semantic Web School zum Einsatz semantischer Technologien in unterschiedlichen Branchen. Den nachfolgenden Bänden ist zu wünschen, dass sie sich auf empirische Untersuchungen mit größerer Resonanz stützen können."
    RSWK
    Information und Dokumentation / Semantic Web (GBV)
    Subject
    Information und Dokumentation / Semantic Web (GBV)
  8. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.01
    0.011427715 = product of:
      0.09370726 = sum of:
        0.008795425 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.008795425 = score(doc=345,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24241515 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.008795425 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.008795425 = score(doc=345,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24241515 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.008795425 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.008795425 = score(doc=345,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24241515 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.022440331 = product of:
          0.044880662 = sum of:
            0.044880662 = weight(_text_:insgesamt in 345) [ClassicSimilarity], result of:
              0.044880662 = score(doc=345,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46047226 = fieldWeight in 345, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=345)
          0.5 = coord(1/2)
        0.044880662 = weight(_text_:insgesamt in 345) [ClassicSimilarity], result of:
          0.044880662 = score(doc=345,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.46047226 = fieldWeight in 345, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
      0.12195122 = coord(5/41)
    
    Abstract
    In diesem Kapitel wird ein Überblick über bestehende semantische Suchmaschinen gegeben. Insgesamt werden 95 solcher Suchdienste identifiziert und im Rahmen einer Inhaltsanalyse verglichen. Es kann festgestellt werden, dass die Semantische Suche sich wesentlich von den im Rahmen des Semantic Web propagierten Technologien unterscheidet und Semantik in den betrachteten Suchmaschinen weiter zu fassen ist. Die betrachteten Suchmaschinen werden in ein Stufenmodell, welches nach dem Grad der Semantik unterscheidet, eingeordnet. Das Kapitel schließt mit 8 Thesen zum aktuellen Stand der semantischen Suche.
  9. Stenzhorn, H.; Samwald, M.: ¬Das Semantic Web als Werkzeug in der biomedizinischen Forschung (2009) 0.01
    0.010288424 = product of:
      0.08436507 = sum of:
        0.03087413 = weight(_text_:medizin in 4878) [ClassicSimilarity], result of:
          0.03087413 = score(doc=4878,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.35358822 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.03087413 = weight(_text_:medizin in 4878) [ClassicSimilarity], result of:
          0.03087413 = score(doc=4878,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.35358822 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007538936 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007538936 = score(doc=4878,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007538936 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007538936 = score(doc=4878,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.007538936 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.007538936 = score(doc=4878,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
      0.12195122 = coord(5/41)
    
    Abstract
    In der biomedizinischen Forschung werden besonders in den letzten Jahren vermehrt enorme Mengen an neuen Daten produziert und diese in Folge verstärkt per Internet veröffentlicht. Viele Experten sehen in dieser Vorgehensweise die Chance zur Entdeckung bisher unbekannter biomedizinischer Erkenntnisse. Um dies jedoch zu ermöglichen, müssen neue Wege gefunden werden, die gewonnenen Daten effizient zu verarbeiten und zu verwalten. In dem vorliegenden Artikel werden die Möglichkeiten betrachtet, die das Semantic Web hierzu anbieten kann. Hierfür werden die relevanten Technologien des Semantic Web im speziellen Kontext der biomedizinischen Forschung betrachtet. Ein Fokus liegt auf der Anwendung von Ontologien in der Biomedizin: Es wird auf deren Vorteile eingegangen, aber auch auf möglichen Probleme, die deren Einsatz in einem erweiterten wissenschaftlichen Umfeld mit sich bringen können.
    Field
    Medizin
  10. Weller, K.: Knowledge representation in the Social Semantic Web (2010) 0.01
    0.009794932 = product of:
      0.06693204 = sum of:
        0.010313551 = weight(_text_:und in 4515) [ClassicSimilarity], result of:
          0.010313551 = score(doc=4515,freq=22.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.28425696 = fieldWeight in 4515, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.010313551 = weight(_text_:und in 4515) [ClassicSimilarity], result of:
          0.010313551 = score(doc=4515,freq=22.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.28425696 = fieldWeight in 4515, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.0023308892 = product of:
          0.0046617785 = sum of:
            0.0046617785 = weight(_text_:4 in 4515) [ClassicSimilarity], result of:
              0.0046617785 = score(doc=4515,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.10493845 = fieldWeight in 4515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4515)
          0.5 = coord(1/2)
        0.010313551 = weight(_text_:und in 4515) [ClassicSimilarity], result of:
          0.010313551 = score(doc=4515,freq=22.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.28425696 = fieldWeight in 4515, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.0112201655 = product of:
          0.022440331 = sum of:
            0.022440331 = weight(_text_:insgesamt in 4515) [ClassicSimilarity], result of:
              0.022440331 = score(doc=4515,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23023613 = fieldWeight in 4515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4515)
          0.5 = coord(1/2)
        0.022440331 = weight(_text_:insgesamt in 4515) [ClassicSimilarity], result of:
          0.022440331 = score(doc=4515,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.23023613 = fieldWeight in 4515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
      0.14634146 = coord(6/41)
    
    Footnote
    Rez. in: iwp 62(2011) H.4, S.205-206 (C. Carstens): "Welche Arten der Wissensrepräsentation existieren im Web, wie ausgeprägt sind semantische Strukturen in diesem Kontext, und wie können soziale Aktivitäten im Sinne des Web 2.0 zur Strukturierung von Wissen im Web beitragen? Diesen Fragen widmet sich Wellers Buch mit dem Titel Knowledge Representation in the Social Semantic Web. Der Begriff Social Semantic Web spielt einerseits auf die semantische Strukturierung von Daten im Sinne des Semantic Web an und deutet andererseits auf die zunehmend kollaborative Inhaltserstellung im Social Web hin. Weller greift die Entwicklungen in diesen beiden Bereichen auf und beleuchtet die Möglichkeiten und Herausforderungen, die aus der Kombination der Aktivitäten im Semantic Web und im Social Web entstehen. Der Fokus des Buches liegt dabei primär auf den konzeptuellen Herausforderungen, die sich in diesem Kontext ergeben. So strebt die originäre Vision des Semantic Web die Annotation aller Webinhalte mit ausdrucksstarken, hochformalisierten Ontologien an. Im Social Web hingegen werden große Mengen an Daten von Nutzern erstellt, die häufig mithilfe von unkontrollierten Tags in Folksonomies annotiert werden. Weller sieht in derartigen kollaborativ erstellten Inhalten und Annotationen großes Potenzial für die semantische Indexierung, eine wichtige Voraussetzung für das Retrieval im Web. Das Hauptinteresse des Buches besteht daher darin, eine Brücke zwischen den Wissensrepräsentations-Methoden im Social Web und im Semantic Web zu schlagen. Um dieser Fragestellung nachzugehen, gliedert sich das Buch in drei Teile. . . .
    Insgesamt besticht das Buch insbesondere durch seine breite Sichtweise, die Aktualität und die Fülle an Referenzen. Es ist somit sowohl als Überblickswerk geeignet, das umfassend über aktuelle Entwicklungen und Trends der Wissensrepräsentation im Semantic und Social Web informiert, als auch als Lektüre für Experten, für die es vor allem als kontextualisierte und sehr aktuelle Sammlung von Referenzen eine wertvolle Ressource darstellt." Weitere Rez. in: Journal of Documentation. 67(2011), no.5, S.896-899 (P. Rafferty)
  11. Hitzler, P.; Krötzsch, M.; Rudolph, S.; Sure, Y.: Semantic Web : Grundlagen (2008) 0.01
    0.009445456 = product of:
      0.077452734 = sum of:
        0.014047978 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.014047978 = score(doc=358,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.017654398 = product of:
          0.035308797 = sum of:
            0.035308797 = weight(_text_:allgemein in 358) [ClassicSimilarity], result of:
              0.035308797 = score(doc=358,freq=4.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.41049585 = fieldWeight in 358, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=358)
          0.5 = coord(1/2)
        0.014047978 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.014047978 = score(doc=358,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.014047978 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.014047978 = score(doc=358,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.017654398 = product of:
          0.035308797 = sum of:
            0.035308797 = weight(_text_:allgemein in 358) [ClassicSimilarity], result of:
              0.035308797 = score(doc=358,freq=4.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.41049585 = fieldWeight in 358, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=358)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Das Buch Semantic Web Grundlagen vermittelt als erstes deutschsprachiges Lehrbuch die Grundlagen des Semantic Web in verständlicher Weise. Es ermöglicht einen einfachen und zügigen Einstieg in Methoden und Technologien des Semantic Web und kann z.B. als solide Grundlage für die Vorbereitung und Durchführung von Vorlesungen genutzt werden. Die Autoren trennen dabei sauber zwischen einer intuitiven Hinführung zur Verwendung semantischer Technologien in der Praxis einerseits, und der Erklärung formaler und theoretischer Hintergründe andererseits. Nur für letzteres werden Grundkenntnisse in Logik vorausgesetzt, die sich bei Bedarf jedoch durch zusätzliche Lektüre und mit Hilfe eines entsprechenden Kapitels im Anhang aneignen lassen.Das Lehrbuch richtet sich primär an Studenten mit Grundkenntnissen in Informatik sowie an interessierte Praktiker welche sich im Bereich Semantic Web fortbilden möchten.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Content
    Inhalt: Die Idee des Semantic Web - Stuktur mit XML - Einfache Ontologien in RDF und RDF Schema - Formale Semantik von RDF(S) - Ontologien in OWL - Ontologien in OWL - Formale Semantik von OWL - Anfragesprachen - Pradikatenlogik - kurzgefasst - Naive Mengenlehre - kurzgefasst
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  12. Borst, T.; Neubert, J.; Seiler, A.: Bibliotheken auf dem Weg in das Semantic Web : Bericht von der SWIB2010 in Köln - unterschiedliche Entwicklungsschwerpunkte (2011) 0.01
    0.006893901 = product of:
      0.056529988 = sum of:
        0.01384991 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.01384991 = score(doc=4532,freq=54.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.007490127 = product of:
          0.014980254 = sum of:
            0.014980254 = weight(_text_:allgemein in 4532) [ClassicSimilarity], result of:
              0.014980254 = score(doc=4532,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17415863 = fieldWeight in 4532, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4532)
          0.5 = coord(1/2)
        0.01384991 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.01384991 = score(doc=4532,freq=54.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.01384991 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.01384991 = score(doc=4532,freq=54.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.007490127 = product of:
          0.014980254 = sum of:
            0.014980254 = weight(_text_:allgemein in 4532) [ClassicSimilarity], result of:
              0.014980254 = score(doc=4532,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17415863 = fieldWeight in 4532, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4532)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Zum zweiten Mal nach 2009 hat in Köln die Konferenz »Semantic Web in Bibliotheken (SWIB)« stattgefunden. Unter Beteiligung von 120 Teilnehmern aus neun Nationen wurde an zwei Tagen über die Semantic Web-Aktivitäten von in- und ausländischen Einrichtungen, ferner seitens des W3C und der Forschung berichtet. Die Konferenz wurde wie im Vorjahr vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft veranstaltet und war bereits im Vorfeld ausgebucht.
    Content
    "Gegenüber der vorjährigen Veranstaltung war ein deutlicher Fortschritt bei der Entwicklung hin zu einem »Web of Linked Open Data (LOD)« zu erkennen. VertreterInnen aus Einrichtungen wie der Deutschen, der Französischen und der Ungarischen Nationalbibliothek, der Prager Wirtschaftsuniversität, der UB Mannheim, des hbz sowie der ZBW berichteten über ihre Ansätze, Entwicklungen und bereits vorhandenen Angebote und Infrastrukturen. Stand der Entwicklung Im Vordergrund stand dabei zum einen die Transformation und Publikation von semantisch angereicherten Bibliotheksdaten aus den vorhandenen Datenquellen in ein maschinenlesbares RDF-Format zwecks Weiterverarbeitung und Verknüpfung mit anderen Datenbeständen. Auf diese Weise betreibt etwa die Deutsche Nationalbibliothek (DNB) die Veröffentlichung und dauerhafte Addressierbarkeit der Gemeinsamen Normdateien (GND) als in der Erprobungsphase befindlichen LOD-Service. Im Verbund mit anderen internationalen »Gedächtnisinstitutionen« soll dieser Service künftig eine verlässliche Infrastruktur zur Identifikation und Einbindung von Personen, Organisationen oder Konzepten in die eigenen Datenbestände bieten.
    Welchen Nutzen andere Einrichtungen daraus ziehen können, demonstrierte Joachim Neubert von der ZBW bei seiner Vorführung einer LOD-basierten Anwendung für ein digitales Pressearchiv: Verknüpfungen mit entsprechenden Normdatensätzen der DNB ermöglichen das Finden von Personen mit alternativen Namensformen und das Verlinken zu Veröffentlichungen. Durch wechselseitige Verlinkungen, so der die Konferenz einleitende Vortrag von Silke Schomburg (hbz), lassen sich wesentliche Informationen, die von den Bibliotheken innerhalb ihrer jeweiligen Verbünde bislang unabhängig voneinander erfasst werden, austauschen und integrieren - eine wichtige Verbund-Aufgabe. Die ungarische Nationalbibliothek etablierte einen ähnlichen Dienst wie die DNB mit Bezug auf ihre Katalogdaten; unter Übernahme bereits bestehender Komponenten wie Unified Resource Locators (URLs) oder der MARC21-Kodierung der bibliografischen Angaben konnten dabei etablierte Infrastrukturen für LOD genutzt beziehungsweise transformiert werden.
    Einen zweiten Entwicklungsschwerpunkt bildeten Ansätze, die vorhandenen Bibliotheksdaten auf der Basis von derzeit in der Standardisierung befindlichen Beschreibungssprachen wie »Resource Description and Access« (RDA) und Modellierungen wie »Functional Requirements for Bibliograhical Records« (FRBR) so aufzubereiten, dass die Daten durch externe Softwaresysteme allgemein interpretierbar und zum Beispiel in modernen Katalogsystemen navigierbar gemacht werden können. Aufbauend auf den zu Beginn des zweiten Tages vorgetragenen Überlegungen der US-amerikanischen Bibliotheksberaterin Karen Coyle schilderten Vertreter der DNB sowie Stefan Gradmann von der Europeana, wie grundlegende Unterscheidungen zwischen einem Werk (zum Beispiel einem Roman), seiner medialen Erscheinungsform (zum Beispiel als Hörbuch) sowie seiner Manifestation (zum Beispiel als CD-ROM) mithilfe von RDA-Elementen ausgedrückt werden können. Aus der Sicht des World Wide Web Konsortiums (W3C) berichtete Antoine Isaac über die Gründung und Arbeit einer »Library Linked Data Incubator Group«, die sich mit der Inventarisierung typischer Nutzungsfälle und »best practices« für LOD-basierte Anwendungen befasst. Sören Auer von der Universität Leipzig bot einen Überblick zu innovativen Forschungsansätzen, die den von ihm so genannten »Lebenszyklus« von LOD an verschiedenen Stellen unterstützen sollen. Angesprochen wurden dabei verschiedene Projekte unter anderem zur Datenhaltung sowie zur automatischen Verlinkung von LOD.
    Rechtliche Aspekte Dass das Semantische Web speziell in seiner Ausprägung als LOD nicht nur Entwickler und Projektleiter beschäftigt, zeigte sich in zwei weiteren Vorträgen. So erläuterte Stefanie Grunow von der ZBW die rechtlichen Rahmenbedingungen bei der Veröffentlichung und Nutzung von LOD, insbesondere wenn es sich um Datenbankinhalte aus verschiedenen Quellen handelt. Angesichts der durchaus gewünschten, teilweise aber nicht antizipierbaren, Nachnutzung von LOD durch Dritte sei im Einzelfall zu prüfen, ob und welche Lizenz für einen Herausgeber die geeignete ist. Aus der Sicht eines Hochschullehrers reflektierte Günther Neher von der FH Potsdam, wie das Semantische Web und LODTechnologien in der informationswissenschaftlichen Ausbildung an seiner Einrichtung zukünftig berücksichtigt werden könnten.
    Perspektiven Welche Potenziale das Semantic Web schließlich für Wissenschaft und Forschung bietet, zeigte sich in dem Vortrag von Klaus Tochtermann, Direktor der ZBW. Ausgehend von klassischen Wissensmanagement-Prozessen wie dem Recherchieren, der Bereitstellung, der Organisation und der Erschließung von Fachinformationen wurden hier punktuell die Ansätze für semantische Technologien angesprochen. Ein auch für Bibliotheken typischer Anwendungsfall sei etwa die Erweiterung der syntaktisch-basierten Suche um Konzepte aus Fachvokabularen, mit der die ursprüngliche Sucheingabe ergänzt wird. Auf diese Weise können Forschende, so Tochtermann, wesentlich mehr und gleichzeitig auch relevante Dokumente erschließen. Anette Seiler (hbz), die die Konferenz moderiert hatte, zog abschließend ein positives Fazit des - auch in den Konferenzpausen - sehr lebendigen Austauschs der hiesigen und internationalen Bibliotheksszene. Auch das von den Teilnehmern spontan erbetene Feedback fiel außerordentlich erfreulich aus. Per Handzeichen sprach man sich fast einhellig für eine Fortführung der SWIB aus - für Anette Seiler ein Anlass mehr anzukündigen, dass die SWIB 2011 erneut stattfinden wird, diesmal in Hamburg und voraussichtlich wieder Ende November."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib10.de.
  13. Borst, T.; Löhden, A.; Neubert, J.; Pohl, A.: "Linked Open Data" im Fokus : Spannende Themen und Diskussionen bei der SWIB12 (2013) 0.01
    0.0066041118 = product of:
      0.054153714 = sum of:
        0.01305782 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.01305782 = score(doc=3352,freq=48.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.007490127 = product of:
          0.014980254 = sum of:
            0.014980254 = weight(_text_:allgemein in 3352) [ClassicSimilarity], result of:
              0.014980254 = score(doc=3352,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17415863 = fieldWeight in 3352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3352)
          0.5 = coord(1/2)
        0.01305782 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.01305782 = score(doc=3352,freq=48.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.01305782 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.01305782 = score(doc=3352,freq=48.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.007490127 = product of:
          0.014980254 = sum of:
            0.014980254 = weight(_text_:allgemein in 3352) [ClassicSimilarity], result of:
              0.014980254 = score(doc=3352,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17415863 = fieldWeight in 3352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3352)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Seit 2009 veranstalten die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft (ZBW) und das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) jährlich zusammen die Konferenz »Semantic Web in Bibliotheken« (SWIB). In diesem Jahr fand die SWIB vom 26. bis 28. November in Köln statt und stand unter dem Motto »Towards an International Linked Open Data (LOD) Library Ecosystem«.
    Content
    "In den Keynotes betonte Emmanuelle Bermes (Centre Pompidou) die Wichtigkeit, nicht nur über Technologien, sondern auch mithilfe von Communities, Organisationen oder Standards Brücken im Sinne eines bibliothekarischen LOD-Ökosystems zu bauen; Jon Voss (LODLAM, Historypin) stellte die auf LOD im Kulturerbebereich fokussierte amerikanische Initiative »Linked Open Data in Libraries, Archives, and Museums« (LODLAM) vor. Kevin Ford (Library of Congress) berichtete den brandneuen Stand des BIBFRAME-Projekts, das Bibliotheken und Gedächtnisinstitutionen im »Web of Data« integrieren soll. Die Verfügbarkeit von Bibliografie- und Normdaten als LOD ist inzwischen Realität, nun kommen - so ein Ergebnis der diesjährigen SWIB - auch Institutions- und Nutzungsdaten sowie Forschungsdaten dazu. Die Anreicherung bibliothekarischer Daten hatten mehrere Vorträge zum Inhalt. Das Culturegraph-Projekt der Deutschen Nationalbibliothek unter Mitarbeit des hbz benennt dabei außer der physischen Übertragung und der Verlinkung von Daten als weitere Möglichkeit die Ergänzung des Suchindex. Ein Vorhaben der Florida State University, von GESIS und Biotea befasst sich damit, wissenschaftliche Artikel beziehungsweise ihre Meta-daten aus den Volltexten selbst heraus zu ergänzen (über die Generierung von RDF-Daten aus PDF-Dokumenten). Ein GESIS-Projekt nutzt zur Anreicherung Bibliografie-, Zeitschriften- und Konferenzplattformen.
    Inzwischen geht es nicht mehr nur um die Veröffentlichung von Linked Data, sondern es werden auch erweiterte Services für BibliotheksnutzerInnen vorgestellt. In der Osloer Deichmanske Bibliothek werden Buchrezensionen strukturiert auffindbar gemacht und den Büchern zugeordnet. An den Regalen bietet, vermittelt durch in den Medien enthaltene RFID-Tags, ein Monitor Medieninformationen aus Bibliotheks- und externen Quellen. Beim LOD-Dienst der Französischen Nationalbibliothek können Nutzerinnen nun auch explizit nach Werken, Editionen und einzelnen Exemplaren recherchieren oder nach Personen, die mit einer bestimmten Rolle an einer Ausgabe beteiligt sind. Bei der Recherche über Themen werden zu einem Stichwort feinere oder gröbere Themen vorgeschlagen. Die semantische Verknüpfung von Termen verbessert die bibliothekarische Erschließung und Recherche, die Anreicherung von Ressourcen sowie Gestaltung von Oberflächen über verschiedene Begriffssysteme und Sprachen hinweg. Mit automatischen Verfahren zur Pflege von Crosskonkordanzen zwischen Thesauri befasst sich unter anderem die »Ontology Alignment Evaluation Initiative« (OAEI), hier wurden Unterschiede von Ontologie-Werkzeugen und Formaten (SKOS, OWL) betrachtet. Ein noch bestehender Mangel an Mehrsprachigkeit von Ontologien und Formaten wurde zum Beispiel im Vortrag der Ontology Engineering Group der Polytechnischen Universität Madrid (OEG-UPM) angedeutet.
    Metadaten verschiedener Quellen Die Dokumentation der Provenienz ist nicht nur für Medien wichtig, sondern - insbesondere wenn Metadaten verschiedener Quellen zusammengeführt werden - auch für die Metadaten selbst. Werden bibliothekarische Metadaten mit Daten aus Web2.0-Quellen angereichert (oder umgekehrt), so sollte mindestens zwischen der Herkunft aus Kulturerbeinstitutionen und Web2.0-Plattformen unterschieden werden. Im Provenance-Workshop wurden verschiedene Vokabulare zur Darstellung der Provenienz von Ressourcen und Metadaten diskutiert. Einen allgemein akzeptierten Ansatz für Linked Data scheint es bisher nicht zu geben - die verfügbaren Ansätze seien teils komplex, sodass auf Metadaten operierende Applikationen speziell auf sie ausgerichtet sein müssten, oder aber unterstützten nicht gut mehrfache Metaaussagen wie zum Beispiel verschachtelte Quellen. Daher empfehle sich eine fallweise pragmatische Vorgehensweise. Dass der Workshop zum Thema Provenance innerhalb weniger Tage ausgebucht war, weist ebenfalls auf die Aktualität des Themas hin. Um für die verschiedensprachigen Wikipedia-Artikel die Datenpflege zu erleichtern, sammelt Wikidata deren Fakten und stellt sie als Datenbasis bereit. Die sogenannten Claims von Wikidata enthalten neben den - über die lokalen Wikipedias divergierenden - Aussagen auch ihre Quellen und Zeitkontexte. Auf die Darstellung der Rechte und Lizenzen der veröffentlichten Bestände an Linked Data wurde mehrfach eingegangen, zum Beispiel in den Vorträgen der Universitätsbibliothek von Amsterdam und der OEG-UPM. Neben den bibliotheksspezifischen Formaten und Schnittstellen trägt auch dies zur Abschottung beziehungsweise Öffnung von Bibliotheksdaten bei. Im Kontext der »Europeana« wird an der Darstellung von Ressourcen-Lizenzen gearbeitet, mithilfe von URLs werden Ressource- und Lizenzinformationen dynamisch zusammen angezeigt."
  14. Schäfer, D.: Konzeption, prototypische Implementierung und Evaluierung eines RDF-basierten Bibliothekskatalogs für Online-Dissertationen (2008) 0.01
    0.006411868 = product of:
      0.052577317 = sum of:
        0.007538936 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007538936 = score(doc=2293,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.014980254 = product of:
          0.029960508 = sum of:
            0.029960508 = weight(_text_:allgemein in 2293) [ClassicSimilarity], result of:
              0.029960508 = score(doc=2293,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.34831727 = fieldWeight in 2293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2293)
          0.5 = coord(1/2)
        0.007538936 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007538936 = score(doc=2293,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.007538936 = weight(_text_:und in 2293) [ClassicSimilarity], result of:
          0.007538936 = score(doc=2293,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.20778441 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.014980254 = product of:
          0.029960508 = sum of:
            0.029960508 = weight(_text_:allgemein in 2293) [ClassicSimilarity], result of:
              0.029960508 = score(doc=2293,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.34831727 = fieldWeight in 2293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2293)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    In dieser Diplomarbeit geht es um die semantische Suche innerhalb bibliothekarischer Metadaten. Die Umsetzung dieses Vorhabens wird ermöglichst durch die Entwicklung in dem Bereich des Semantischen Webs, die durch das W3C Semantic Web Activity vorangetrieben wird. Diese Arbeit basiert auf den Empfehlungen und Arbeitsentwürfen unterschiedlicher Technologien dieser Gruppe, deren Kombination schließlich ein Semantisches Web ermöglicht. Da die Thematik des Semantischen Webs schwer zu greifen ist, werden die Komponenten, die in dieser Arbeit eine Rolle spielen, ausführlich erkäutert. Im Anschluss daran werden die Anforderungen an eine semantische Suche innerhalb bibliothekarischer Metadaten dargestellt, um dann ein Konzept zur Lösung zu erläutern. Die Zielsetzung dieser Arbeit ist die Umsetzung der Konzepte des Semantischen Webs innerhalb einer prototypischen Implementierung mit einem umfangreichen Datensatz. Hier wurden die Metadaten der elektronischen Dissertationen innerhalb der Deutschen Nationalbibliothek zusammen mit Daten eines Klassifikationssystems verwendet.
    Theme
    Katalogfragen allgemein
  15. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.01
    0.0059312047 = product of:
      0.048635878 = sum of:
        0.0044423607 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0044423607 = score(doc=2789,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.017654398 = product of:
          0.035308797 = sum of:
            0.035308797 = weight(_text_:allgemein in 2789) [ClassicSimilarity], result of:
              0.035308797 = score(doc=2789,freq=4.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.41049585 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
        0.0044423607 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0044423607 = score(doc=2789,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.0044423607 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0044423607 = score(doc=2789,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.017654398 = product of:
          0.035308797 = sum of:
            0.035308797 = weight(_text_:allgemein in 2789) [ClassicSimilarity], result of:
              0.035308797 = score(doc=2789,freq=4.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.41049585 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
  16. Borst, T.; Fingerle, B.; Neubert, J.; Seiler, A.: Auf dem Weg in das Semantic Web : Anwendungsbeispiele und Lösungsszenarien in Bibliotheken / Eine Veranstaltung von hbz und ZBW (2010) 0.01
    0.005822401 = product of:
      0.047743686 = sum of:
        0.01175338 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.01175338 = score(doc=4398,freq=56.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.006241773 = product of:
          0.012483546 = sum of:
            0.012483546 = weight(_text_:allgemein in 4398) [ClassicSimilarity], result of:
              0.012483546 = score(doc=4398,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1451322 = fieldWeight in 4398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4398)
          0.5 = coord(1/2)
        0.01175338 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.01175338 = score(doc=4398,freq=56.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.01175338 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.01175338 = score(doc=4398,freq=56.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.006241773 = product of:
          0.012483546 = sum of:
            0.012483546 = weight(_text_:allgemein in 4398) [ClassicSimilarity], result of:
              0.012483546 = score(doc=4398,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1451322 = fieldWeight in 4398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4398)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Unter dem Motto »Fachtagung für innovative Bibliothekare« hat am 24. und 25. November 2009 in Köln erstmals die Veranstaltung »Semantic Web in Bibliotheken - SWIB09« stattgefunden. Die international besetzte Tagung wurde vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) gemeinsam ausgerichtet, um Bibliotheken das »Semantic Web« näher zu bringen. Die aus Platzgründen auf rund 100 am ersten Tag und 60 am zweiten Tag begrenzten Teilnehmerplätze waren rasch ausgebucht. Während der erste Tag eine Einführung und erste Anwendungsbeispiele bot, die das Potenzial von Semantic Web-Anwendungen zeigten, vermittelte der zweite Tag anhand praxisnaher Beispiele Anforderungen und Lösungsszenarien für Bibliotheken.
    Content
    "In seinem Einführungsvortrag skizzierte Jakob Voß, Software-Entwickler bei der Verbundzentrale (VZG), anhand von herkömmlichen bibliothekarischen Katalogeinträgen den für das Semantic Web typischen Wandel weg von einem Web vernetzter Dokumente hin zu einem Web vernetzter Daten. Die Nutzung vorhandener Standards sollte diesen Wandel begleiten. Einen dieser Standards könnte die »Bibliographic Ontology« (bibo) darstellen, die auf existierenden Ontologien wie Dublin Core basiert und die Voß in einem weiteren Vortrag vorstellte. Dabei warf er die provozierende Frage auf, ob die bibo die Nachfolge bibliografischer Datenformate antreten werde. Lars G. Svensson, IT-Manager an der Deutschen Nationalbibliothek (DNB), stellte hingegen nicht bibo, sondern «Resource Description and Access« (RDA) ins Zentrum der DNB-Planungen. »Fünf gute Gründe«, warum sich kulturelle Einrichtungen mit dem Semantic Web beschäftigen sollten, benannte Professor Stefan Gradmann, Inhaber des Lehrstuhls für Wissensmanagement an der Humboldt-Universität zu Berlin. Die Beschäftigung sei unter anderem erforderlich, damit diese Einrichtungen zukünftig überhaupt noch wahrgenommen werden. Andererseits könnten sie durch die Verknüpfung von bibliothekarischen Meta-daten und Kontextdaten (wie Personennormdaten) einen spezifischen Beitrag zum Semantic Web leisten.
    Auch Bernhard Haslhofer, Assistent am Lehrgebiet für Verteilte Multimediasysteme an der Universität Wien, sieht ein großes Potenzial darin, klassische Mechanismen der Informationsorganisation durch Bibliotheken als »Linked Open Data« in das Semantic Web einzubringen. Sie könnten möglicherweise sogar Baustein einer freien und community-getriebenen Alternative zu konzerngetriebenen Anwendungen wie Google Books sein. Voraussetzung sei allerdings, dass Bibliotheken nicht an ihren Datenbeständen in Form geschlossener Datensilos festhalten. Dazu passte das leidenschaftliche Plädoyer für Free Data von Patrick Danowski, Emerging Technologies Librarian am CERN: Die ganze Mächtigkeit seiner Netzwerkeffekte könne Linked Data nur entfalten, wenn die Daten unter einer freien Lizenz veröffentlicht werden, wobei Danowski für eine Bereitstellung als »public domain« plädiert. Mehrere Beiträge zeigten, dass mit Linked Data mittlerweile eine geeignete Technologie vorliegt, um das Semantic Web für Bibliotheken Wirklichkeit werden zu lassen. Ed Summers, Software-Entwickler bei der Library of Congress (LoC) und zuständig für einen der bislang größten Linked Data-Bestände aus Bibliotheken, die LoC Subject Headings, verwies in seinem Vortrag auf die vielfältigen Verknüpfungsmöglichkeiten und Anwendungen von Linked Data. So können Schlagworte aus verschiedenen Vokabularen in Beziehung gesetzt werden und Presseartikel mit »Flickr«Bildern und Geokoordinaten verknüpft werden, die das Ereignis bebildern beziehungsweise räumlich verorten.
    Moderne Web-Anwendungen Wie ein klassischer Bibliothekskatalog in eine moderne Web-Anwendung und in Linked Open Data überführt werden kann, berichtete Anders Söderbäck von der Schwedischen Nationalbibliothek. Unter dem Thema »Linked Applications« entwarf Felix Ostrowski, IT-Entwickler beim hbz, eine tiefe Integration von Ontologien direkt in die verwendete Programmiersprache am Beispiel von Repository Software. Andre Hagenbruch, Mitarbeiter der Universitätsbibliothek Bochum, stellte ein Projekt für ein Linked Data-basiertes Bibliotheksportal vor, das neben bibliografischen Daten auch administrative Informationen wie Personaldaten oder Öffnungszeiten integrieren soll. Interessante Einblicke bot Jürgen Kett von der DNB zur hauseigenen Linked Data-Strategie. Dazu gehört die Veröffentlichung der Personennamendatei (PND) zwecks kostenfreier Weiterverwendung durch andere Bibliotheken. In einem weiteren Vortrag gingen Kett und sein Kollege Svensson auf Details ihres aktuellen Linked Data-Projekts ein, das in einer ersten Stufe URI- und SPARQL-Zugriff auf die SWDund PND-Datensets sowie ihre Verknüpfungen zu internationalen Normdatenbeständen ermöglichen soll. Ein Beta-Dienst soll bis Mitte 2010 online gehen. Timo Borst, Leiter der IT-Entwicklung der ZBW, griff dies auf und demonstrierte die Integration von Thesaurus-und Personennormdaten in den ZBW-Dokumentenserver. Als technischer Zugangspunkt für Linked Data wurde dabei auch ein experimenteller SPARQLEndpoint der DNB genutzt, dessen Abfrage eine automatische Vorschlagsfunktion für PND-Einträge ermöglicht. Praktische Erfahrungen aus den Linked Data-Projekten der ZBW fasste Joachim Neubert, IT-Entwickler bei der ZBW, zusammen, verbunden mit Hinweisen zu Tools, Communities und Best Practice-Beispielen im Web.
    Einen Einblick in Ontologien, die eine wesentliche Säule des Semantic Web bilden, ihren Zusammenhang mit natürlicher Sprache und ihre Nutzungsmöglichkeiten gab Elena Semanova, Forscherin und selbstständige Ontologie-Expertin. Aus dem Museumsbereich stellte Karin Teichmann (Leiterin der Grafischen Sammlung im Deutschen Buch- und Schriftmuseum der DNB) das als ISO-Standard vorliegende »CIDOC Conceptual Reference Model« vor, das unterschiedlich strukturierte Informationen durch ein übergreifendes Meta-Modell zusammenführen kann. Professor Stefan Gradmann und Marlies Olensky, Forscherin an der HU Berlin, präsentierten die semantische Datenschicht der Europeana, die den W3C-Standard SKOS und Linked Data nutzt, um Benutzeranfragen, Browsing und Ergebnispräsentation zu unterstützen. Über die umfassenden Linked Data-Aktivitäten innerhalb der DBPedia, einer Semantic Web-Version der Wikipedia, berichtete Anja Jentzsch, Forscherin an der Freien Universität Berlin. Neben der Infrastruktur für Linked Data veranschaulichte sie die Integration von DBPediaDaten in Browser-, Such- und Portaloberflächen. Eine von Jürgen Kett moderierte Abschlussrunde sammelte Stichpunkte zur Frage »Wie geht es weiter?« Um den Austausch fortzuführen, wurde unter anderem eine Kommunikationsplattform vorgeschlagen, die im Umfeld der Semantic Web-Aktivitäten des W3C angesiedelt ist. Allgemein war der Wunsch nach einer Neuauflage der Tagung in 2010 zu hören."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib09.de.
  17. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.005216114 = product of:
      0.053465173 = sum of:
        0.015234124 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.015234124 = score(doc=4184,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.015234124 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.015234124 = score(doc=4184,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.015234124 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.015234124 = score(doc=4184,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.007762802 = product of:
          0.015525604 = sum of:
            0.015525604 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.015525604 = score(doc=4184,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.09756097 = coord(4/41)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  18. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.01
    0.005070566 = product of:
      0.051973306 = sum of:
        0.015992498 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.015992498 = score(doc=1761,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4407773 = fieldWeight in 1761, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
        0.015992498 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.015992498 = score(doc=1761,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4407773 = fieldWeight in 1761, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
        0.0039958097 = product of:
          0.007991619 = sum of:
            0.007991619 = weight(_text_:4 in 1761) [ClassicSimilarity], result of:
              0.007991619 = score(doc=1761,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17989448 = fieldWeight in 1761, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1761)
          0.5 = coord(1/2)
        0.015992498 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.015992498 = score(doc=1761,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4407773 = fieldWeight in 1761, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
      0.09756097 = coord(4/41)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.193-198
  19. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.01
    0.005070566 = product of:
      0.051973306 = sum of:
        0.015992498 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.015992498 = score(doc=4322,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.015992498 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.015992498 = score(doc=4322,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.0039958097 = product of:
          0.007991619 = sum of:
            0.007991619 = weight(_text_:4 in 4322) [ClassicSimilarity], result of:
              0.007991619 = score(doc=4322,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17989448 = fieldWeight in 4322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
        0.015992498 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.015992498 = score(doc=4322,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.09756097 = coord(4/41)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  20. Berners-Lee, T.; Hendler, J.; Lassila, O.: Mein Computer versteht mich (2001) 0.00
    0.0048666764 = product of:
      0.049883436 = sum of:
        0.007107777 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007107777 = score(doc=4550,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
        0.007107777 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007107777 = score(doc=4550,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
        0.028560106 = sum of:
          0.0106554935 = weight(_text_:4 in 4550) [ClassicSimilarity], result of:
            0.0106554935 = score(doc=4550,freq=2.0), product of:
              0.04442393 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016370254 = queryNorm
              0.23985931 = fieldWeight in 4550, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0625 = fieldNorm(doc=4550)
          0.017904611 = weight(_text_:29 in 4550) [ClassicSimilarity], result of:
            0.017904611 = score(doc=4550,freq=2.0), product of:
              0.057585433 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016370254 = queryNorm
              0.31092256 = fieldWeight in 4550, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=4550)
        0.007107777 = weight(_text_:und in 4550) [ClassicSimilarity], result of:
          0.007107777 = score(doc=4550,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.19590102 = fieldWeight in 4550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4550)
      0.09756097 = coord(4/41)
    
    Abstract
    Was wäre, wenn der Computer den Inhalt einer Seite aus dem World Wide Web nicht nur anzeigen, sondern auch seine Bedeutung erfassen würde? Er könnte ungeahnte Dinge für seinen Benutzer tun - und das vielleicht schon bald, wenn das semantische Netz etabliert ist
    Date
    31.12.1996 19:29:41
    4. 9.2008 15:25:44

Authors

Years

Languages

  • e 101
  • d 86

Types

  • a 126
  • el 32
  • m 30
  • s 16
  • x 11
  • n 3
  • r 3
  • More… Less…

Subjects

Classifications