Search (131 results, page 1 of 7)

  • × theme_ss:"Semantic Web"
  1. Keyser, P. de: Indexing : from thesauri to the Semantic Web (2012) 0.31
    0.3080742 = product of:
      0.36968905 = sum of:
        0.015386774 = weight(_text_:und in 3197) [ClassicSimilarity], result of:
          0.015386774 = score(doc=3197,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 3197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3197)
        0.07342099 = weight(_text_:anwendung in 3197) [ClassicSimilarity], result of:
          0.07342099 = score(doc=3197,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 3197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=3197)
        0.02402186 = weight(_text_:des in 3197) [ClassicSimilarity], result of:
          0.02402186 = score(doc=3197,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 3197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3197)
        0.10259437 = weight(_text_:prinzips in 3197) [ClassicSimilarity], result of:
          0.10259437 = score(doc=3197,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 3197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=3197)
        0.15426503 = sum of:
          0.11585415 = weight(_text_:thesaurus in 3197) [ClassicSimilarity], result of:
            0.11585415 = score(doc=3197,freq=6.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.5305915 = fieldWeight in 3197, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.046875 = fieldNorm(doc=3197)
          0.03841088 = weight(_text_:22 in 3197) [ClassicSimilarity], result of:
            0.03841088 = score(doc=3197,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.23214069 = fieldWeight in 3197, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3197)
      0.8333333 = coord(5/6)
    
    Date
    24. 8.2016 14:03:22
    RSWK
    Thesaurus
    Subject
    Thesaurus
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.24
    0.23610324 = product of:
      0.28332388 = sum of:
        0.04623151 = weight(_text_:und in 429) [ClassicSimilarity], result of:
          0.04623151 = score(doc=429,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.441457 = fieldWeight in 429, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.061184157 = weight(_text_:anwendung in 429) [ClassicSimilarity], result of:
          0.061184157 = score(doc=429,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.03467257 = weight(_text_:des in 429) [ClassicSimilarity], result of:
          0.03467257 = score(doc=429,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.08549531 = weight(_text_:prinzips in 429) [ClassicSimilarity], result of:
          0.08549531 = score(doc=429,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.055740345 = product of:
          0.11148069 = sum of:
            0.11148069 = weight(_text_:thesaurus in 429) [ClassicSimilarity], result of:
              0.11148069 = score(doc=429,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5105618 = fieldWeight in 429, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=429)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
    Content
    Bachelorarbeit zur Erlangung des Grades Bachelor of Science Wirtschaftsinformatik des Fachbereichs Wirtschaft der Technischen Hochschule Brandenburg. Vgl. unter: https://opus4.kobv.de/opus4-fhbrb/files/2732/20210826_BT_SchulzTheresa.pdf.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Martínez-González, M.M.; Alvite-Díez, M.L.: Thesauri and Semantic Web : discussion of the evolution of thesauri toward their integration with the Semantic Web (2019) 0.19
    0.18982713 = product of:
      0.22779256 = sum of:
        0.012822312 = weight(_text_:und in 5997) [ClassicSimilarity], result of:
          0.012822312 = score(doc=5997,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12243814 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.061184157 = weight(_text_:anwendung in 5997) [ClassicSimilarity], result of:
          0.061184157 = score(doc=5997,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.020018218 = weight(_text_:des in 5997) [ClassicSimilarity], result of:
          0.020018218 = score(doc=5997,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.08549531 = weight(_text_:prinzips in 5997) [ClassicSimilarity], result of:
          0.08549531 = score(doc=5997,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.048272558 = product of:
          0.096545115 = sum of:
            0.096545115 = weight(_text_:thesaurus in 5997) [ClassicSimilarity], result of:
              0.096545115 = score(doc=5997,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.44215953 = fieldWeight in 5997, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5997)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Thesauri are Knowledge Organization Systems (KOS), that arise from the consensus of wide communities. They have been in use for many years and are regularly updated. Whereas in the past thesauri were designed for information professionals for indexing and searching, today there is a demand for conceptual vocabularies that enable inferencing by machines. The development of the Semantic Web has brought a new opportunity for thesauri, but thesauri also face the challenge of proving that they add value to it. The evolution of thesauri toward their integration with the Semantic Web is examined. Elements and structures in the thesaurus standard, ISO 25964, and SKOS (Simple Knowledge Organization System), the Semantic Web standard for representing KOS, are reviewed and compared. Moreover, the integrity rules of thesauri are contrasted with the axioms of SKOS. How SKOS has been applied to represent some real thesauri is taken into account. Three thesauri are chosen for this aim: AGROVOC, EuroVoc and the UNESCO Thesaurus. Based on the results of this comparison and analysis, the benefits that Semantic Web technologies offer to thesauri, how thesauri can contribute to the Semantic Web, and the challenges that would help to improve their integration with the Semantic Web are discussed.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.18
    0.18365969 = product of:
      0.22039163 = sum of:
        0.03838136 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.03838136 = score(doc=132,freq=28.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.048947323 = weight(_text_:anwendung in 132) [ClassicSimilarity], result of:
          0.048947323 = score(doc=132,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.04237058 = weight(_text_:des in 132) [ClassicSimilarity], result of:
          0.04237058 = score(doc=132,freq=14.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.32380626 = fieldWeight in 132, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.06839625 = weight(_text_:prinzips in 132) [ClassicSimilarity], result of:
          0.06839625 = score(doc=132,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.022296138 = product of:
          0.044592276 = sum of:
            0.044592276 = weight(_text_:thesaurus in 132) [ClassicSimilarity], result of:
              0.044592276 = score(doc=132,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.20422474 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013) 0.14
    0.13571079 = product of:
      0.20356618 = sum of:
        0.048657253 = weight(_text_:und in 936) [ClassicSimilarity], result of:
          0.048657253 = score(doc=936,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.46462005 = fieldWeight in 936, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.07342099 = weight(_text_:anwendung in 936) [ClassicSimilarity], result of:
          0.07342099 = score(doc=936,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.04804372 = weight(_text_:des in 936) [ClassicSimilarity], result of:
          0.04804372 = score(doc=936,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 936, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.03344421 = product of:
          0.06688842 = sum of:
            0.06688842 = weight(_text_:thesaurus in 936) [ClassicSimilarity], result of:
              0.06688842 = score(doc=936,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30633712 = fieldWeight in 936, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=936)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
  6. Aufreiter, M.: Informationsvisualisierung und Navigation im Semantic Web (2008) 0.10
    0.09941533 = product of:
      0.19883066 = sum of:
        0.037689745 = weight(_text_:und in 4711) [ClassicSimilarity], result of:
          0.037689745 = score(doc=4711,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 4711, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
        0.12716888 = weight(_text_:anwendung in 4711) [ClassicSimilarity], result of:
          0.12716888 = score(doc=4711,freq=6.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.5558977 = fieldWeight in 4711, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
        0.03397204 = weight(_text_:des in 4711) [ClassicSimilarity], result of:
          0.03397204 = score(doc=4711,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 4711, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
      0.5 = coord(3/6)
    
    Abstract
    Der Anreiz und das Potential von Informationsvisualisierungen wird bereits häufig erkannt und der Wunsch nach deren Anwendung immer stärker. Gerade im Bereich des Wissensmanagements spielt dieses Gebiet eine immer wichtigere Rolle. Diese Arbeit beschäftigt sich mit Informationsvisualisierung im Semantic Web und vermittelt einen Überblick über aktuelle Entwicklungen zum Thema Knowledge Visualization. Zun¨achst werden grundlegende Konzepte der Informationsvisualisierung vorgestellt und deren Bedeutung in Hinblick auf das Wissensmanagement erklärt. Aus den Anforderungen, die das Semantic Web an die Informationsvisualisierungen stellt, lassen sich Kriterien ableiten, die zur Beurteilung von Visualisierungstechniken herangezogen werden können. Die ausgewählten Kriterien werden im Rahmen dieser Arbeit zu einem Kriterienkatalog zusammengefasst. Schließlich werden ausgewählte Werkzeuge beschrieben, die im Wissensmanagement bereits erfolgreich Anwendung finden. Die einzelnen Untersuchungsobjekte werden nach einer detailierten Beschreibung anhand der ausgewählten Kriterien analysiert und bewertet. Dabei wird besonders auf deren Anwendung im Kontext des Semantic Web eingegangen.
  7. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.10
    0.0990185 = product of:
      0.198037 = sum of:
        0.046160325 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.046160325 = score(doc=4322,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.10383296 = weight(_text_:anwendung in 4322) [ClassicSimilarity], result of:
          0.10383296 = score(doc=4322,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.4538886 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.04804372 = weight(_text_:des in 4322) [ClassicSimilarity], result of:
          0.04804372 = score(doc=4322,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 4322, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.5 = coord(3/6)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  8. Birkenbihl, K.: Standards für das Semantic Web (2006) 0.09
    0.0854776 = product of:
      0.1709552 = sum of:
        0.0410314 = weight(_text_:und in 5788) [ClassicSimilarity], result of:
          0.0410314 = score(doc=5788,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.39180204 = fieldWeight in 5788, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5788)
        0.097894646 = weight(_text_:anwendung in 5788) [ClassicSimilarity], result of:
          0.097894646 = score(doc=5788,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.42793027 = fieldWeight in 5788, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=5788)
        0.03202915 = weight(_text_:des in 5788) [ClassicSimilarity], result of:
          0.03202915 = score(doc=5788,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 5788, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5788)
      0.5 = coord(3/6)
    
    Abstract
    Semantic Web - das ist die Anwendung von Wissenstechnologie im World Wide Web. Dieses Kapitel beschreibt in einigen einführenden Absätzen die Aufgabe und Entstehung von Standards. Sodann gibt es einen Überblick über die Technologien und Standards, die für das Web und seine Erweiterung zum Semantic Web entwickelt und eingesetzt werden. Diese werden überwiegend vom World Wide Web Consortium (W3C) [35] definiert. Abschließend folgen einige Bemerkungen zur weiteren Entwicklung des Semantic Web.
  9. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.08
    0.080413416 = product of:
      0.16082683 = sum of:
        0.015386774 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.015386774 = score(doc=4332,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.10383296 = weight(_text_:anwendung in 4332) [ClassicSimilarity], result of:
          0.10383296 = score(doc=4332,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.4538886 = fieldWeight in 4332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.04160709 = weight(_text_:des in 4332) [ClassicSimilarity], result of:
          0.04160709 = score(doc=4332,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.31797147 = fieldWeight in 4332, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.5 = coord(3/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  10. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.08
    0.07659589 = product of:
      0.15319178 = sum of:
        0.015386774 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.015386774 = score(doc=4333,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.10383296 = weight(_text_:anwendung in 4333) [ClassicSimilarity], result of:
          0.10383296 = score(doc=4333,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.4538886 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.03397204 = weight(_text_:des in 4333) [ClassicSimilarity], result of:
          0.03397204 = score(doc=4333,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.5 = coord(3/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  11. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.07
    0.07238789 = product of:
      0.14477578 = sum of:
        0.031092454 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.031092454 = score(doc=5809,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.08565781 = weight(_text_:anwendung in 5809) [ClassicSimilarity], result of:
          0.08565781 = score(doc=5809,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.028025504 = weight(_text_:des in 5809) [ClassicSimilarity], result of:
          0.028025504 = score(doc=5809,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.5 = coord(3/6)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  12. Hanke, M.: Bibliothekarische Klassifikationssysteme im semantischen Web : zu Chancen und Problemen von Linked-data-Repräsentationen ausgewählter Klassifikationssysteme (2014) 0.07
    0.06907622 = product of:
      0.13815244 = sum of:
        0.04070958 = weight(_text_:und in 2463) [ClassicSimilarity], result of:
          0.04070958 = score(doc=2463,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38872904 = fieldWeight in 2463, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
        0.07342099 = weight(_text_:anwendung in 2463) [ClassicSimilarity], result of:
          0.07342099 = score(doc=2463,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 2463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
        0.02402186 = weight(_text_:des in 2463) [ClassicSimilarity], result of:
          0.02402186 = score(doc=2463,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 2463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
      0.5 = coord(3/6)
    
    Abstract
    Pflege und Anwendung von Klassifikationssystemen für Informationsressourcen sind traditionell eine Kernkompetenz von Bibliotheken. Diese Systeme sind häufig historisch gewachsen und die Veröffentlichung verschiedener Systeme ist in der Vergangenheit typischerweise durch gedruckte Regelwerke oder proprietäre Datenbanken erfolgt. Die Technologien des semantischen Web erlauben es, Klassifikationssysteme in einer standardisierten und maschinenlesbaren Weise zu repräsentieren, sowie als Linked (Open) Data für die Nachnutzung zugänglich zu machen. Anhand ausgewählter Beispiele von Klassifikationssystemen, die bereits als Linked (Open) Data publiziert wurden, werden in diesem Artikel zentrale semantische und technische Fragen erörtert, sowie mögliche Einsatzgebiete und Chancen dargestellt. So kann beispielsweise die für die Maschinenlesbarkeit erforderliche starke Strukturierung von Daten im semantischen Web zum besseren Verständnis der Klassifikationssysteme beitragen und möglicherweise positive Impulse für ihre Weiterentwicklung liefern. Für das semantische Web aufbereitete Repräsentationen von Klassifikationssystemen können unter anderem zur Kataloganreicherung oder für die anwendungsbezogene Erstellung von Konkordanzen zwischen verschiedenen Klassifikations- bzw. Begriffssystemen genutzt werden..
  13. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.07
    0.066061854 = product of:
      0.13212371 = sum of:
        0.036266975 = weight(_text_:und in 4429) [ClassicSimilarity], result of:
          0.036266975 = score(doc=4429,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 4429, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
        0.061184157 = weight(_text_:anwendung in 4429) [ClassicSimilarity], result of:
          0.061184157 = score(doc=4429,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 4429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
        0.03467257 = weight(_text_:des in 4429) [ClassicSimilarity], result of:
          0.03467257 = score(doc=4429,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 4429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
      0.5 = coord(3/6)
    
    Abstract
    Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch - technisch betrachtet - ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
    Footnote
    Video des Vortrags auf der ISI_2011 in Hildesheim (www.eurospider.com/video-podcasts.html) unter: ..\videos\Meyer_ISI_2011.flv.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  14. Borst, T.; Fingerle, B.; Neubert, J.; Seiler, A.: Auf dem Weg in das Semantic Web : Anwendungsbeispiele und Lösungsszenarien in Bibliotheken / Eine Veranstaltung von hbz und ZBW (2010) 0.07
    0.06564669 = product of:
      0.09847003 = sum of:
        0.033924647 = weight(_text_:und in 4398) [ClassicSimilarity], result of:
          0.033924647 = score(doc=4398,freq=56.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.32394084 = fieldWeight in 4398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.030592078 = weight(_text_:anwendung in 4398) [ClassicSimilarity], result of:
          0.030592078 = score(doc=4398,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.1337282 = fieldWeight in 4398, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.020018218 = weight(_text_:des in 4398) [ClassicSimilarity], result of:
          0.020018218 = score(doc=4398,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 4398, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
        0.013935086 = product of:
          0.027870173 = sum of:
            0.027870173 = weight(_text_:thesaurus in 4398) [ClassicSimilarity], result of:
              0.027870173 = score(doc=4398,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.12764046 = fieldWeight in 4398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4398)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Unter dem Motto »Fachtagung für innovative Bibliothekare« hat am 24. und 25. November 2009 in Köln erstmals die Veranstaltung »Semantic Web in Bibliotheken - SWIB09« stattgefunden. Die international besetzte Tagung wurde vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) gemeinsam ausgerichtet, um Bibliotheken das »Semantic Web« näher zu bringen. Die aus Platzgründen auf rund 100 am ersten Tag und 60 am zweiten Tag begrenzten Teilnehmerplätze waren rasch ausgebucht. Während der erste Tag eine Einführung und erste Anwendungsbeispiele bot, die das Potenzial von Semantic Web-Anwendungen zeigten, vermittelte der zweite Tag anhand praxisnaher Beispiele Anforderungen und Lösungsszenarien für Bibliotheken.
    Content
    "In seinem Einführungsvortrag skizzierte Jakob Voß, Software-Entwickler bei der Verbundzentrale (VZG), anhand von herkömmlichen bibliothekarischen Katalogeinträgen den für das Semantic Web typischen Wandel weg von einem Web vernetzter Dokumente hin zu einem Web vernetzter Daten. Die Nutzung vorhandener Standards sollte diesen Wandel begleiten. Einen dieser Standards könnte die »Bibliographic Ontology« (bibo) darstellen, die auf existierenden Ontologien wie Dublin Core basiert und die Voß in einem weiteren Vortrag vorstellte. Dabei warf er die provozierende Frage auf, ob die bibo die Nachfolge bibliografischer Datenformate antreten werde. Lars G. Svensson, IT-Manager an der Deutschen Nationalbibliothek (DNB), stellte hingegen nicht bibo, sondern «Resource Description and Access« (RDA) ins Zentrum der DNB-Planungen. »Fünf gute Gründe«, warum sich kulturelle Einrichtungen mit dem Semantic Web beschäftigen sollten, benannte Professor Stefan Gradmann, Inhaber des Lehrstuhls für Wissensmanagement an der Humboldt-Universität zu Berlin. Die Beschäftigung sei unter anderem erforderlich, damit diese Einrichtungen zukünftig überhaupt noch wahrgenommen werden. Andererseits könnten sie durch die Verknüpfung von bibliothekarischen Meta-daten und Kontextdaten (wie Personennormdaten) einen spezifischen Beitrag zum Semantic Web leisten.
    Auch Bernhard Haslhofer, Assistent am Lehrgebiet für Verteilte Multimediasysteme an der Universität Wien, sieht ein großes Potenzial darin, klassische Mechanismen der Informationsorganisation durch Bibliotheken als »Linked Open Data« in das Semantic Web einzubringen. Sie könnten möglicherweise sogar Baustein einer freien und community-getriebenen Alternative zu konzerngetriebenen Anwendungen wie Google Books sein. Voraussetzung sei allerdings, dass Bibliotheken nicht an ihren Datenbeständen in Form geschlossener Datensilos festhalten. Dazu passte das leidenschaftliche Plädoyer für Free Data von Patrick Danowski, Emerging Technologies Librarian am CERN: Die ganze Mächtigkeit seiner Netzwerkeffekte könne Linked Data nur entfalten, wenn die Daten unter einer freien Lizenz veröffentlicht werden, wobei Danowski für eine Bereitstellung als »public domain« plädiert. Mehrere Beiträge zeigten, dass mit Linked Data mittlerweile eine geeignete Technologie vorliegt, um das Semantic Web für Bibliotheken Wirklichkeit werden zu lassen. Ed Summers, Software-Entwickler bei der Library of Congress (LoC) und zuständig für einen der bislang größten Linked Data-Bestände aus Bibliotheken, die LoC Subject Headings, verwies in seinem Vortrag auf die vielfältigen Verknüpfungsmöglichkeiten und Anwendungen von Linked Data. So können Schlagworte aus verschiedenen Vokabularen in Beziehung gesetzt werden und Presseartikel mit »Flickr«Bildern und Geokoordinaten verknüpft werden, die das Ereignis bebildern beziehungsweise räumlich verorten.
    Moderne Web-Anwendungen Wie ein klassischer Bibliothekskatalog in eine moderne Web-Anwendung und in Linked Open Data überführt werden kann, berichtete Anders Söderbäck von der Schwedischen Nationalbibliothek. Unter dem Thema »Linked Applications« entwarf Felix Ostrowski, IT-Entwickler beim hbz, eine tiefe Integration von Ontologien direkt in die verwendete Programmiersprache am Beispiel von Repository Software. Andre Hagenbruch, Mitarbeiter der Universitätsbibliothek Bochum, stellte ein Projekt für ein Linked Data-basiertes Bibliotheksportal vor, das neben bibliografischen Daten auch administrative Informationen wie Personaldaten oder Öffnungszeiten integrieren soll. Interessante Einblicke bot Jürgen Kett von der DNB zur hauseigenen Linked Data-Strategie. Dazu gehört die Veröffentlichung der Personennamendatei (PND) zwecks kostenfreier Weiterverwendung durch andere Bibliotheken. In einem weiteren Vortrag gingen Kett und sein Kollege Svensson auf Details ihres aktuellen Linked Data-Projekts ein, das in einer ersten Stufe URI- und SPARQL-Zugriff auf die SWDund PND-Datensets sowie ihre Verknüpfungen zu internationalen Normdatenbeständen ermöglichen soll. Ein Beta-Dienst soll bis Mitte 2010 online gehen. Timo Borst, Leiter der IT-Entwicklung der ZBW, griff dies auf und demonstrierte die Integration von Thesaurus-und Personennormdaten in den ZBW-Dokumentenserver. Als technischer Zugangspunkt für Linked Data wurde dabei auch ein experimenteller SPARQLEndpoint der DNB genutzt, dessen Abfrage eine automatische Vorschlagsfunktion für PND-Einträge ermöglicht. Praktische Erfahrungen aus den Linked Data-Projekten der ZBW fasste Joachim Neubert, IT-Entwickler bei der ZBW, zusammen, verbunden mit Hinweisen zu Tools, Communities und Best Practice-Beispielen im Web.
    Einen Einblick in Ontologien, die eine wesentliche Säule des Semantic Web bilden, ihren Zusammenhang mit natürlicher Sprache und ihre Nutzungsmöglichkeiten gab Elena Semanova, Forscherin und selbstständige Ontologie-Expertin. Aus dem Museumsbereich stellte Karin Teichmann (Leiterin der Grafischen Sammlung im Deutschen Buch- und Schriftmuseum der DNB) das als ISO-Standard vorliegende »CIDOC Conceptual Reference Model« vor, das unterschiedlich strukturierte Informationen durch ein übergreifendes Meta-Modell zusammenführen kann. Professor Stefan Gradmann und Marlies Olensky, Forscherin an der HU Berlin, präsentierten die semantische Datenschicht der Europeana, die den W3C-Standard SKOS und Linked Data nutzt, um Benutzeranfragen, Browsing und Ergebnispräsentation zu unterstützen. Über die umfassenden Linked Data-Aktivitäten innerhalb der DBPedia, einer Semantic Web-Version der Wikipedia, berichtete Anja Jentzsch, Forscherin an der Freien Universität Berlin. Neben der Infrastruktur für Linked Data veranschaulichte sie die Integration von DBPediaDaten in Browser-, Such- und Portaloberflächen. Eine von Jürgen Kett moderierte Abschlussrunde sammelte Stichpunkte zur Frage »Wie geht es weiter?« Um den Austausch fortzuführen, wurde unter anderem eine Kommunikationsplattform vorgeschlagen, die im Umfeld der Semantic Web-Aktivitäten des W3C angesiedelt ist. Allgemein war der Wunsch nach einer Neuauflage der Tagung in 2010 zu hören."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib09.de.
  15. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.06
    0.060452186 = product of:
      0.090678275 = sum of:
        0.037928913 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.037928913 = score(doc=1847,freq=70.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.030592078 = weight(_text_:anwendung in 1847) [ClassicSimilarity], result of:
          0.030592078 = score(doc=1847,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.1337282 = fieldWeight in 1847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.014155018 = weight(_text_:des in 1847) [ClassicSimilarity], result of:
          0.014155018 = score(doc=1847,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.10817608 = fieldWeight in 1847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.008002267 = product of:
          0.016004534 = sum of:
            0.016004534 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
              0.016004534 = score(doc=1847,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.09672529 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    LibraryThing ist eine zur Klasse der Sozialen Software gehörende Webanwendung, in der Benutzer gemeinsam Bücher verwalten und miteinander in Kontakt treten können. Die Webseite wurde Ende August 2005 veröffentlicht und verzeichnet inzwischen (Juli 2007) über 235.000 Benutzer und 16 Millionen verschiedene Bücher. Jeder Nutzer verfügt über eine eigene Sammlung, die in LibraryThing als "Bibliotheken" oder "Katalog" bezeichnet wird. Die Katalogisierung geschieht in eine gemeinsame Datenbank, die von allen Nutzern direkt bearbeitet werden kann. Da es sich um eine reine Webanwendung handelt, muss zur Nutzung keine weitere Software installiert werden. Die Nutzung ist für bis zu 200 Medien kostenlos, eine jährliche Mitgliedschaft kostet 10 $ und eine lebenslange Mitgliedschaft 25 $. Bibliotheken und andere nichtkommerzielle Einrichtungen zahlen 15 $ pro Jahr. Dieses Preismodell hat sich auch nicht geändert, nachdem 40% des Unternehmens im Mai 2006 vom Gebrauchtbuchhändler AbeBooks übernommen wurden. Die Mehrheit hält weiterhin der Gründer Tim Spalding, der die ursprünglich als privates Projekt begonnene Seite mit inzwischen zwei weiteren Entwicklern und einer Bibliothekarin kontinuierlich weiterentwickelt.
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
    Source
    Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2007, H.137, S.12-13
  16. Stenzhorn, H.; Samwald, M.: ¬Das Semantic Web als Werkzeug in der biomedizinischen Forschung (2009) 0.06
    0.059601516 = product of:
      0.11920303 = sum of:
        0.021760186 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.021760186 = score(doc=4878,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.20778441 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.07342099 = weight(_text_:anwendung in 4878) [ClassicSimilarity], result of:
          0.07342099 = score(doc=4878,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
        0.02402186 = weight(_text_:des in 4878) [ClassicSimilarity], result of:
          0.02402186 = score(doc=4878,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4878)
      0.5 = coord(3/6)
    
    Abstract
    In der biomedizinischen Forschung werden besonders in den letzten Jahren vermehrt enorme Mengen an neuen Daten produziert und diese in Folge verstärkt per Internet veröffentlicht. Viele Experten sehen in dieser Vorgehensweise die Chance zur Entdeckung bisher unbekannter biomedizinischer Erkenntnisse. Um dies jedoch zu ermöglichen, müssen neue Wege gefunden werden, die gewonnenen Daten effizient zu verarbeiten und zu verwalten. In dem vorliegenden Artikel werden die Möglichkeiten betrachtet, die das Semantic Web hierzu anbieten kann. Hierfür werden die relevanten Technologien des Semantic Web im speziellen Kontext der biomedizinischen Forschung betrachtet. Ein Fokus liegt auf der Anwendung von Ontologien in der Biomedizin: Es wird auf deren Vorteile eingegangen, aber auch auf möglichen Probleme, die deren Einsatz in einem erweiterten wissenschaftlichen Umfeld mit sich bringen können.
  17. Borst, T.; Neubert, J.; Seiler, A.: Bibliotheken auf dem Weg in das Semantic Web : Bericht von der SWIB2010 in Köln - unterschiedliche Entwicklungsschwerpunkte (2011) 0.05
    0.05305358 = product of:
      0.10610716 = sum of:
        0.039976016 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.039976016 = score(doc=4532,freq=54.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.036710493 = weight(_text_:anwendung in 4532) [ClassicSimilarity], result of:
          0.036710493 = score(doc=4532,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.16047385 = fieldWeight in 4532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.02942065 = weight(_text_:des in 4532) [ClassicSimilarity], result of:
          0.02942065 = score(doc=4532,freq=12.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.22483975 = fieldWeight in 4532, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
      0.5 = coord(3/6)
    
    Abstract
    Zum zweiten Mal nach 2009 hat in Köln die Konferenz »Semantic Web in Bibliotheken (SWIB)« stattgefunden. Unter Beteiligung von 120 Teilnehmern aus neun Nationen wurde an zwei Tagen über die Semantic Web-Aktivitäten von in- und ausländischen Einrichtungen, ferner seitens des W3C und der Forschung berichtet. Die Konferenz wurde wie im Vorjahr vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft veranstaltet und war bereits im Vorfeld ausgebucht.
    Content
    "Gegenüber der vorjährigen Veranstaltung war ein deutlicher Fortschritt bei der Entwicklung hin zu einem »Web of Linked Open Data (LOD)« zu erkennen. VertreterInnen aus Einrichtungen wie der Deutschen, der Französischen und der Ungarischen Nationalbibliothek, der Prager Wirtschaftsuniversität, der UB Mannheim, des hbz sowie der ZBW berichteten über ihre Ansätze, Entwicklungen und bereits vorhandenen Angebote und Infrastrukturen. Stand der Entwicklung Im Vordergrund stand dabei zum einen die Transformation und Publikation von semantisch angereicherten Bibliotheksdaten aus den vorhandenen Datenquellen in ein maschinenlesbares RDF-Format zwecks Weiterverarbeitung und Verknüpfung mit anderen Datenbeständen. Auf diese Weise betreibt etwa die Deutsche Nationalbibliothek (DNB) die Veröffentlichung und dauerhafte Addressierbarkeit der Gemeinsamen Normdateien (GND) als in der Erprobungsphase befindlichen LOD-Service. Im Verbund mit anderen internationalen »Gedächtnisinstitutionen« soll dieser Service künftig eine verlässliche Infrastruktur zur Identifikation und Einbindung von Personen, Organisationen oder Konzepten in die eigenen Datenbestände bieten.
    Welchen Nutzen andere Einrichtungen daraus ziehen können, demonstrierte Joachim Neubert von der ZBW bei seiner Vorführung einer LOD-basierten Anwendung für ein digitales Pressearchiv: Verknüpfungen mit entsprechenden Normdatensätzen der DNB ermöglichen das Finden von Personen mit alternativen Namensformen und das Verlinken zu Veröffentlichungen. Durch wechselseitige Verlinkungen, so der die Konferenz einleitende Vortrag von Silke Schomburg (hbz), lassen sich wesentliche Informationen, die von den Bibliotheken innerhalb ihrer jeweiligen Verbünde bislang unabhängig voneinander erfasst werden, austauschen und integrieren - eine wichtige Verbund-Aufgabe. Die ungarische Nationalbibliothek etablierte einen ähnlichen Dienst wie die DNB mit Bezug auf ihre Katalogdaten; unter Übernahme bereits bestehender Komponenten wie Unified Resource Locators (URLs) oder der MARC21-Kodierung der bibliografischen Angaben konnten dabei etablierte Infrastrukturen für LOD genutzt beziehungsweise transformiert werden.
    Einen zweiten Entwicklungsschwerpunkt bildeten Ansätze, die vorhandenen Bibliotheksdaten auf der Basis von derzeit in der Standardisierung befindlichen Beschreibungssprachen wie »Resource Description and Access« (RDA) und Modellierungen wie »Functional Requirements for Bibliograhical Records« (FRBR) so aufzubereiten, dass die Daten durch externe Softwaresysteme allgemein interpretierbar und zum Beispiel in modernen Katalogsystemen navigierbar gemacht werden können. Aufbauend auf den zu Beginn des zweiten Tages vorgetragenen Überlegungen der US-amerikanischen Bibliotheksberaterin Karen Coyle schilderten Vertreter der DNB sowie Stefan Gradmann von der Europeana, wie grundlegende Unterscheidungen zwischen einem Werk (zum Beispiel einem Roman), seiner medialen Erscheinungsform (zum Beispiel als Hörbuch) sowie seiner Manifestation (zum Beispiel als CD-ROM) mithilfe von RDA-Elementen ausgedrückt werden können. Aus der Sicht des World Wide Web Konsortiums (W3C) berichtete Antoine Isaac über die Gründung und Arbeit einer »Library Linked Data Incubator Group«, die sich mit der Inventarisierung typischer Nutzungsfälle und »best practices« für LOD-basierte Anwendungen befasst. Sören Auer von der Universität Leipzig bot einen Überblick zu innovativen Forschungsansätzen, die den von ihm so genannten »Lebenszyklus« von LOD an verschiedenen Stellen unterstützen sollen. Angesprochen wurden dabei verschiedene Projekte unter anderem zur Datenhaltung sowie zur automatischen Verlinkung von LOD.
    Rechtliche Aspekte Dass das Semantische Web speziell in seiner Ausprägung als LOD nicht nur Entwickler und Projektleiter beschäftigt, zeigte sich in zwei weiteren Vorträgen. So erläuterte Stefanie Grunow von der ZBW die rechtlichen Rahmenbedingungen bei der Veröffentlichung und Nutzung von LOD, insbesondere wenn es sich um Datenbankinhalte aus verschiedenen Quellen handelt. Angesichts der durchaus gewünschten, teilweise aber nicht antizipierbaren, Nachnutzung von LOD durch Dritte sei im Einzelfall zu prüfen, ob und welche Lizenz für einen Herausgeber die geeignete ist. Aus der Sicht eines Hochschullehrers reflektierte Günther Neher von der FH Potsdam, wie das Semantische Web und LODTechnologien in der informationswissenschaftlichen Ausbildung an seiner Einrichtung zukünftig berücksichtigt werden könnten.
    Perspektiven Welche Potenziale das Semantic Web schließlich für Wissenschaft und Forschung bietet, zeigte sich in dem Vortrag von Klaus Tochtermann, Direktor der ZBW. Ausgehend von klassischen Wissensmanagement-Prozessen wie dem Recherchieren, der Bereitstellung, der Organisation und der Erschließung von Fachinformationen wurden hier punktuell die Ansätze für semantische Technologien angesprochen. Ein auch für Bibliotheken typischer Anwendungsfall sei etwa die Erweiterung der syntaktisch-basierten Suche um Konzepte aus Fachvokabularen, mit der die ursprüngliche Sucheingabe ergänzt wird. Auf diese Weise können Forschende, so Tochtermann, wesentlich mehr und gleichzeitig auch relevante Dokumente erschließen. Anette Seiler (hbz), die die Konferenz moderiert hatte, zog abschließend ein positives Fazit des - auch in den Konferenzpausen - sehr lebendigen Austauschs der hiesigen und internationalen Bibliotheksszene. Auch das von den Teilnehmern spontan erbetene Feedback fiel außerordentlich erfreulich aus. Per Handzeichen sprach man sich fast einhellig für eine Fortführung der SWIB aus - für Anette Seiler ein Anlass mehr anzukündigen, dass die SWIB 2011 erneut stattfinden wird, diesmal in Hamburg und voraussichtlich wieder Ende November."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib10.de.
  18. Web 2.0-Pionier ortet kollektive Intelligenz im Internet : Technologieschübe kommen über mobile Endgeräte und Spracherkennung (2007) 0.05
    0.048986815 = product of:
      0.09797363 = sum of:
        0.034405876 = weight(_text_:und in 670) [ClassicSimilarity], result of:
          0.034405876 = score(doc=670,freq=40.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.328536 = fieldWeight in 670, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=670)
        0.036710493 = weight(_text_:anwendung in 670) [ClassicSimilarity], result of:
          0.036710493 = score(doc=670,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.16047385 = fieldWeight in 670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=670)
        0.026857255 = weight(_text_:des in 670) [ClassicSimilarity], result of:
          0.026857255 = score(doc=670,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.20524967 = fieldWeight in 670, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=670)
      0.5 = coord(3/6)
    
    Content
    "Die Vision von der künstlichen Intelligenz wird Wirklichkeit, sagt Computerbuchverleger und Web 2.0-Pionier Tim O'Reilly. Das Leben mit dem Internet sei viel weiter als manche ahnungslose Nutzer meinten. Und es gebe keinen Weg zurück. O'Reilly ist sich allerdings nicht sicher, ob der nächste große Technologie-Schub mit dem WorldWideWeb verbunden ist. " Wenn wir über unseren Umgang mit Computern reden, verbinden wir das immer noch damit, vor einem Bildschirm zu sitzen und auf einer Tastatur zu tippen. Aber Computer werden immer mehr in den Hintergrund gedrängt. Die offensichtliche Veränderung ist zunächst - was ja viele Menschen auch schon beschrieben haben-, dass auch mobile Endgeräte oder Mobiltelefone als Plattform dienen. Damit ist auch verbunden, dass Spracherkennung immer besser wird. Oder dass Fotoapparate mittlerweile mit GPS ausgestattet sind. Wenn Sie damit ein Foto machen, ist der Ort automatisch Teil des Fotos und damit Teil der Information, die Sie zum Beispiel auf eine Web-2.0-Anwendung wie flickr stellen. Und plötzlich lernt das globale Gehirn etwas, was Sie gar nicht beabsichtigt haben", betont O'Reilly. Microsoft habe eine Software vorgestellt, die Photosynth heißt. Mit ihr könnten aus aneinander gereihten Digitalfotos 3-D Modelle entworfen werden. Man müsse die Fotos nur mit "Tags" versehen, also markieren, und jemand anderes nutzt das und führt alles zu einem 3-D Modell zusammen. "Wir bewegen uns also in Richtung künstlicher Intelligenz. Allerdings ist immer noch ein Mensch dahinter, der dem Programm sagt, was es tun soll. Aber das Beispiel zeigt, was mit der Nutzung kollektiver Intelligenz gemeint ist. Wir geben immer mehr Daten in das globale Netzwerk ein, und Menschen schreiben Programme, die neue Verbindungen erstellen. Es ist, als würden die Synapsen des kollektiven Gehirns wachsen. Ich glaube, wir dürfen Überraschungen erwarten", meint O'Reilly.
    Die Informationen aus dem Internet werden nach seiner Erkenntnis auf viele verschiedene Arten zugänglich sein. "Wir denken immer, es gibt Milliarden Computer da draußen - aber das stimmt nicht. Es gibt eigentlich nur einen, und darum geht es im Web 2.0. Alles wird mit allem verbunden. Und was wir heute unter einem Computer verstehen ist eigentlich nur ein Zugangsgerät zu dem einen weltweiten elektronischen Gehirn, das wir erschaffen", sagt O'Reilly. Webexperten halten die Visionen von O'Reilly für realistisch: "So wird die Spracherkennung eine Schlüsseltechnologie sein für den Zugriff auf das vernetzte Weltwissen. Wie häufig hätten wir gerne im Alltag genaue Informationen zu Sportergebnissen, Telefonnummern oder Adressen. Unendlich viele Dinge, die wir, wenn wir gerade im Internet wären sofort 'er-googlen' würden. Da das aber in der Freizeit und von unterwegs selten der Fall ist und der Zugriff über das Handy mit Tastatur oder Touch-screen zu mühselig ist, verzichten wir meistens darauf unseren Wissenshunger sofort zu stillen. Anders wäre es, wenn wir mit einfachen gesprochenen Suchbefehlen unsere Anfrage starten und die Suche dann bei Bedarf eingrenzen könnten, genauso, wie wir es derzeitig mit der PC-Tastatur und der Maus tun und das ganze jederzeit und von jedem Ort aus", kommentiert Lupo Pape, Geschäftsführer von SemanticEdge, die Analysen des Web-2.0-Vordenkers.
    Die fehlenden Bausteine dafür seien jetzt schon verfügbar, so dass es nur eine Frage der Zeit seit, bis sich die Menschen weltweit an dieses neue Interface gewöhnt haben. "Die Spracherkennung im personalisierten Diktiermodus ist schon sehr weit gereift, die mobilen Datenzugriffe werden immer schneller und auch Flat-rates im Mobilfunk werden vermutlich bald genauso verbreitet sein wie im DSL-Geschäft", sagt Pape. Spannender werde es noch, wenn man in der nächsten Generation des Internets, dem SemanticWeb, auf eine gesprochene Frage nicht eine Flut von Weblinks angezeigt bekommt, sondern das Sprachdialogsystem gleich die richtige Antwort gibt. "Viele Informationen liegen bereits strukturiert vor wie Fahrplaninformationen, Telefonnummern, Sportergebnisse oder bewertete Restaurants und sonstige Adressen. Was fehlt, ist eine Art Yahoo des 'Voicewebs', über das sich jeder personalisiert seine gewünschten Angebote zusammenstellen und über Sprache oder Multimodale Interfaces abfragen kann.""
  19. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.05
    0.04720161 = product of:
      0.09440322 = sum of:
        0.04397137 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.04397137 = score(doc=4184,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.028025504 = weight(_text_:des in 4184) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4184,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.022406347 = product of:
          0.044812694 = sum of:
            0.044812694 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.044812694 = score(doc=4184,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  20. Ulrich, W.: Simple Knowledge Organisation System (2007) 0.04
    0.04006326 = product of:
      0.12018977 = sum of:
        0.053301353 = weight(_text_:und in 105) [ClassicSimilarity], result of:
          0.053301353 = score(doc=105,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.5089658 = fieldWeight in 105, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=105)
        0.06688842 = product of:
          0.13377684 = sum of:
            0.13377684 = weight(_text_:thesaurus in 105) [ClassicSimilarity], result of:
              0.13377684 = score(doc=105,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.61267424 = fieldWeight in 105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.09375 = fieldNorm(doc=105)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Semantic Web - Taxonomie und Thesaurus - SKOS - Historie - Klassen und Eigenschaften - Beispiele - Generierung - automatisiert - per Folksonomie - Fazit und Ausblick

Languages

  • d 82
  • e 48

Types

  • a 85
  • el 27
  • m 16
  • x 10
  • s 8
  • r 4
  • n 2
  • More… Less…

Subjects

Classifications