Search (130 results, page 1 of 7)

  • × theme_ss:"Semantic Web"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.09
    0.08868577 = product of:
      0.3370059 = sum of:
        0.025923533 = product of:
          0.0777706 = sum of:
            0.0777706 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.0777706 = score(doc=701,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.0777706 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.0777706 = score(doc=701,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0777706 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.0777706 = score(doc=701,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0777706 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.0777706 = score(doc=701,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0777706 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.0777706 = score(doc=701,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.2631579 = coord(5/19)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Corporate Semantic Web : wie semantische Anwendungen in Unternehmen Nutzen stiften (2015) 0.01
    0.00825699 = product of:
      0.07844141 = sum of:
        0.06081324 = weight(_text_:literatur in 2246) [ClassicSimilarity], result of:
          0.06081324 = score(doc=2246,freq=12.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.51854706 = fieldWeight in 2246, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
        0.017628169 = weight(_text_:und in 2246) [ClassicSimilarity], result of:
          0.017628169 = score(doc=2246,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3248651 = fieldWeight in 2246, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
      0.10526316 = coord(2/19)
    
    Abstract
    Beim Corporate Semantic Web betrachtet man Semantic Web-Anwendungen, die innerhalb eines Unternehmens oder einer Organisation - kommerziell und nicht kommerziell - eingesetzt werden, von Mitarbeitern, von Kunden oder Partnern. Die Autoren erläutern prägende Erfahrungen in der Entwicklung von Semantic Web-Anwendungen. Sie berichten über Software-Architektur, Methodik, Technologieauswahl, Linked Open Data Sets, Lizenzfragen etc. Anwendungen aus den Branchen Banken, Versicherungen, Telekommunikation, Medien, Energie, Maschinenbau, Logistik, Touristik, Spielwaren, Bibliothekswesen und Kultur werden vorgestellt. Der Leser erhält so einen umfassenden Überblick über die Semantic Web-Einsatzbereiche sowie konkrete Umsetzungshinweise für eigene Vorhaben.
    Content
    Kapitel 1; Corporate Semantic Web; 1.1 Das Semantic Web; 1.2 Semantische Anwendungen im Unternehmenseinsatz; 1.3 Bereitstellen von Linked Data reicht nicht; 1.4 Eine global vernetzte Wissensbasis -- Fiktion oder Realität?; 1.5 Semantik)=)RDF?; 1.6 Richtig vorgehen; 1.7 Modellieren ist einfach (?!); 1.8 Juristische Fragen; 1.9 Semantische Anwendungen stiften Nutzen in Unternehmen -- nachweislich!; 1.10 Fazit; Literatur; Kapitel 2; Einordnung und Abgrenzung des Corporate Semantic Webs; 2.1 Grundlegende Begriffe; 2.2 Corporate Semantic Web 2.3 Public Semantic Web2.4 Social Semantic Web 3.0; 2.5 Pragmatic Web; 2.6 Zusammenfassung und Ausblick "Ubiquitous Pragmatic Web 4.0"; Literatur; Kapitel 3; Marktstudie: Welche Standards und Tools werden in Unternehmen eingesetzt?; 3.1 Einleitung; 3.2 Semantische Suche in Webarchiven (Quantinum AG); 3.2.1 Kundenanforderungen; 3.2.2 Technische Umsetzung; 3.2.3 Erfahrungswerte; 3.3 Semantische Analyse und Suche in Kundenspezifikationen (Ontos AG); 3.3.1 Kundenanforderungen; 3.3.2 Technische Umsetzung; 3.3.3 Erfahrungswerte 3.4 Sicherheit für Banken im Risikomanagement (VICO Research & Consulting GmbH)3.4.1 Kundenanforderungen; 3.4.2 Technische Umsetzung; 3.4.3 Erfahrungswerte; 3.5 Interaktive Fahrzeugdiagnose (semafora GmbH); 3.5.1 Kundenanforderungen; 3.5.2 Technische Umsetzung; 3.5.3 Erfahrungswerte; 3.6 Quo Vadis?; 3.7 Umfrage-Ergebnisse; 3.8 Semantic Web Standards & Tools; 3.9 Ausblick; Literatur; Kapitel 4; Modellierung des Sprachraums von Unternehmen; 4.1 Hintergrund; 4.2 Eine Frage der Bedeutung; 4.3 Bedeutung von Begriffen im Unternehmenskontext; 4.3.1 Website-Suche bei einem Industrieunternehmen 4.3.2 Extranet-Suche bei einem Marktforschungsunternehmen4.3.3 Intranet-Suche bei einem Fernsehsender; 4.4 Variabilität unserer Sprache und unseres Sprachgebrauchs; 4.4.1 Konsequenzen des Sprachgebrauchs; 4.5 Terminologiemanagement und Unternehmensthesaurus; 4.5.1 Unternehmensthesaurus; 4.5.2 Mut zur Lücke: Arbeiten mit unvollständigen Terminologien; 4.6 Pragmatischer Aufbau von Unternehmensthesauri; 4.6.1 Begriffsanalyse des Anwendungsbereichs; 4.6.2 Informationsquellen; 4.6.3 Häufigkeitsverteilung; 4.6.4 Aufwand und Nutzen; Literatur; Kapitel 5 Schlendern durch digitale Museen und Bibliotheken5.1 Einleitung; 5.2 Anwendungsfall 1: Schlendern durch das Digitale Museum; 5.3 Anwendungsfall 2: Literatur in Bibliotheken finden; 5.4 Herausforderungen; 5.5 Die Anforderungen treiben die Architektur; 5.5.1 Semantic ETL; 5.5.2 Semantic Logic; 5.5.3 Client; 5.6 Diskussion; 5.7 Empfehlungen und Fazit; Literatur; Kapitel 6; Semantische Suche im Bereich der Energieforschungsförderung; 6.1 Das Projekt EnArgus®; 6.2 Die Fachontologie; 6.2.1 Semantische Suche; 6.2.2 Repräsentation der semantischen Relationen in der Fachontologie
  3. Borst, T.; Neubert, J.; Seiler, A.: Bibliotheken auf dem Weg in das Semantic Web : Bericht von der SWIB2010 in Köln - unterschiedliche Entwicklungsschwerpunkte (2011) 0.01
    0.007896777 = product of:
      0.050012924 = sum of:
        0.018097384 = weight(_text_:deutsche in 4532) [ClassicSimilarity], result of:
          0.018097384 = score(doc=4532,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.1565272 = fieldWeight in 4532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.020713525 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.020713525 = score(doc=4532,freq=54.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38172436 = fieldWeight in 4532, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
        0.011202015 = product of:
          0.02240403 = sum of:
            0.02240403 = weight(_text_:allgemein in 4532) [ClassicSimilarity], result of:
              0.02240403 = score(doc=4532,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.17415863 = fieldWeight in 4532, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4532)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Zum zweiten Mal nach 2009 hat in Köln die Konferenz »Semantic Web in Bibliotheken (SWIB)« stattgefunden. Unter Beteiligung von 120 Teilnehmern aus neun Nationen wurde an zwei Tagen über die Semantic Web-Aktivitäten von in- und ausländischen Einrichtungen, ferner seitens des W3C und der Forschung berichtet. Die Konferenz wurde wie im Vorjahr vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft veranstaltet und war bereits im Vorfeld ausgebucht.
    Content
    "Gegenüber der vorjährigen Veranstaltung war ein deutlicher Fortschritt bei der Entwicklung hin zu einem »Web of Linked Open Data (LOD)« zu erkennen. VertreterInnen aus Einrichtungen wie der Deutschen, der Französischen und der Ungarischen Nationalbibliothek, der Prager Wirtschaftsuniversität, der UB Mannheim, des hbz sowie der ZBW berichteten über ihre Ansätze, Entwicklungen und bereits vorhandenen Angebote und Infrastrukturen. Stand der Entwicklung Im Vordergrund stand dabei zum einen die Transformation und Publikation von semantisch angereicherten Bibliotheksdaten aus den vorhandenen Datenquellen in ein maschinenlesbares RDF-Format zwecks Weiterverarbeitung und Verknüpfung mit anderen Datenbeständen. Auf diese Weise betreibt etwa die Deutsche Nationalbibliothek (DNB) die Veröffentlichung und dauerhafte Addressierbarkeit der Gemeinsamen Normdateien (GND) als in der Erprobungsphase befindlichen LOD-Service. Im Verbund mit anderen internationalen »Gedächtnisinstitutionen« soll dieser Service künftig eine verlässliche Infrastruktur zur Identifikation und Einbindung von Personen, Organisationen oder Konzepten in die eigenen Datenbestände bieten.
    Welchen Nutzen andere Einrichtungen daraus ziehen können, demonstrierte Joachim Neubert von der ZBW bei seiner Vorführung einer LOD-basierten Anwendung für ein digitales Pressearchiv: Verknüpfungen mit entsprechenden Normdatensätzen der DNB ermöglichen das Finden von Personen mit alternativen Namensformen und das Verlinken zu Veröffentlichungen. Durch wechselseitige Verlinkungen, so der die Konferenz einleitende Vortrag von Silke Schomburg (hbz), lassen sich wesentliche Informationen, die von den Bibliotheken innerhalb ihrer jeweiligen Verbünde bislang unabhängig voneinander erfasst werden, austauschen und integrieren - eine wichtige Verbund-Aufgabe. Die ungarische Nationalbibliothek etablierte einen ähnlichen Dienst wie die DNB mit Bezug auf ihre Katalogdaten; unter Übernahme bereits bestehender Komponenten wie Unified Resource Locators (URLs) oder der MARC21-Kodierung der bibliografischen Angaben konnten dabei etablierte Infrastrukturen für LOD genutzt beziehungsweise transformiert werden.
    Einen zweiten Entwicklungsschwerpunkt bildeten Ansätze, die vorhandenen Bibliotheksdaten auf der Basis von derzeit in der Standardisierung befindlichen Beschreibungssprachen wie »Resource Description and Access« (RDA) und Modellierungen wie »Functional Requirements for Bibliograhical Records« (FRBR) so aufzubereiten, dass die Daten durch externe Softwaresysteme allgemein interpretierbar und zum Beispiel in modernen Katalogsystemen navigierbar gemacht werden können. Aufbauend auf den zu Beginn des zweiten Tages vorgetragenen Überlegungen der US-amerikanischen Bibliotheksberaterin Karen Coyle schilderten Vertreter der DNB sowie Stefan Gradmann von der Europeana, wie grundlegende Unterscheidungen zwischen einem Werk (zum Beispiel einem Roman), seiner medialen Erscheinungsform (zum Beispiel als Hörbuch) sowie seiner Manifestation (zum Beispiel als CD-ROM) mithilfe von RDA-Elementen ausgedrückt werden können. Aus der Sicht des World Wide Web Konsortiums (W3C) berichtete Antoine Isaac über die Gründung und Arbeit einer »Library Linked Data Incubator Group«, die sich mit der Inventarisierung typischer Nutzungsfälle und »best practices« für LOD-basierte Anwendungen befasst. Sören Auer von der Universität Leipzig bot einen Überblick zu innovativen Forschungsansätzen, die den von ihm so genannten »Lebenszyklus« von LOD an verschiedenen Stellen unterstützen sollen. Angesprochen wurden dabei verschiedene Projekte unter anderem zur Datenhaltung sowie zur automatischen Verlinkung von LOD.
    Rechtliche Aspekte Dass das Semantische Web speziell in seiner Ausprägung als LOD nicht nur Entwickler und Projektleiter beschäftigt, zeigte sich in zwei weiteren Vorträgen. So erläuterte Stefanie Grunow von der ZBW die rechtlichen Rahmenbedingungen bei der Veröffentlichung und Nutzung von LOD, insbesondere wenn es sich um Datenbankinhalte aus verschiedenen Quellen handelt. Angesichts der durchaus gewünschten, teilweise aber nicht antizipierbaren, Nachnutzung von LOD durch Dritte sei im Einzelfall zu prüfen, ob und welche Lizenz für einen Herausgeber die geeignete ist. Aus der Sicht eines Hochschullehrers reflektierte Günther Neher von der FH Potsdam, wie das Semantische Web und LODTechnologien in der informationswissenschaftlichen Ausbildung an seiner Einrichtung zukünftig berücksichtigt werden könnten.
    Perspektiven Welche Potenziale das Semantic Web schließlich für Wissenschaft und Forschung bietet, zeigte sich in dem Vortrag von Klaus Tochtermann, Direktor der ZBW. Ausgehend von klassischen Wissensmanagement-Prozessen wie dem Recherchieren, der Bereitstellung, der Organisation und der Erschließung von Fachinformationen wurden hier punktuell die Ansätze für semantische Technologien angesprochen. Ein auch für Bibliotheken typischer Anwendungsfall sei etwa die Erweiterung der syntaktisch-basierten Suche um Konzepte aus Fachvokabularen, mit der die ursprüngliche Sucheingabe ergänzt wird. Auf diese Weise können Forschende, so Tochtermann, wesentlich mehr und gleichzeitig auch relevante Dokumente erschließen. Anette Seiler (hbz), die die Konferenz moderiert hatte, zog abschließend ein positives Fazit des - auch in den Konferenzpausen - sehr lebendigen Austauschs der hiesigen und internationalen Bibliotheksszene. Auch das von den Teilnehmern spontan erbetene Feedback fiel außerordentlich erfreulich aus. Per Handzeichen sprach man sich fast einhellig für eine Fortführung der SWIB aus - für Anette Seiler ein Anlass mehr anzukündigen, dass die SWIB 2011 erneut stattfinden wird, diesmal in Hamburg und voraussichtlich wieder Ende November."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib10.de.
  4. Borst, T.; Löhden, A.; Neubert, J.; Pohl, A.: "Linked Open Data" im Fokus : Spannende Themen und Diskussionen bei der SWIB12 (2013) 0.01
    0.007709731 = product of:
      0.048828296 = sum of:
        0.018097384 = weight(_text_:deutsche in 3352) [ClassicSimilarity], result of:
          0.018097384 = score(doc=3352,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.1565272 = fieldWeight in 3352, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.019528896 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.019528896 = score(doc=3352,freq=48.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.35989314 = fieldWeight in 3352, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
        0.011202015 = product of:
          0.02240403 = sum of:
            0.02240403 = weight(_text_:allgemein in 3352) [ClassicSimilarity], result of:
              0.02240403 = score(doc=3352,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.17415863 = fieldWeight in 3352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3352)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Seit 2009 veranstalten die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft (ZBW) und das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) jährlich zusammen die Konferenz »Semantic Web in Bibliotheken« (SWIB). In diesem Jahr fand die SWIB vom 26. bis 28. November in Köln statt und stand unter dem Motto »Towards an International Linked Open Data (LOD) Library Ecosystem«.
    Content
    "In den Keynotes betonte Emmanuelle Bermes (Centre Pompidou) die Wichtigkeit, nicht nur über Technologien, sondern auch mithilfe von Communities, Organisationen oder Standards Brücken im Sinne eines bibliothekarischen LOD-Ökosystems zu bauen; Jon Voss (LODLAM, Historypin) stellte die auf LOD im Kulturerbebereich fokussierte amerikanische Initiative »Linked Open Data in Libraries, Archives, and Museums« (LODLAM) vor. Kevin Ford (Library of Congress) berichtete den brandneuen Stand des BIBFRAME-Projekts, das Bibliotheken und Gedächtnisinstitutionen im »Web of Data« integrieren soll. Die Verfügbarkeit von Bibliografie- und Normdaten als LOD ist inzwischen Realität, nun kommen - so ein Ergebnis der diesjährigen SWIB - auch Institutions- und Nutzungsdaten sowie Forschungsdaten dazu. Die Anreicherung bibliothekarischer Daten hatten mehrere Vorträge zum Inhalt. Das Culturegraph-Projekt der Deutschen Nationalbibliothek unter Mitarbeit des hbz benennt dabei außer der physischen Übertragung und der Verlinkung von Daten als weitere Möglichkeit die Ergänzung des Suchindex. Ein Vorhaben der Florida State University, von GESIS und Biotea befasst sich damit, wissenschaftliche Artikel beziehungsweise ihre Meta-daten aus den Volltexten selbst heraus zu ergänzen (über die Generierung von RDF-Daten aus PDF-Dokumenten). Ein GESIS-Projekt nutzt zur Anreicherung Bibliografie-, Zeitschriften- und Konferenzplattformen.
    Inzwischen geht es nicht mehr nur um die Veröffentlichung von Linked Data, sondern es werden auch erweiterte Services für BibliotheksnutzerInnen vorgestellt. In der Osloer Deichmanske Bibliothek werden Buchrezensionen strukturiert auffindbar gemacht und den Büchern zugeordnet. An den Regalen bietet, vermittelt durch in den Medien enthaltene RFID-Tags, ein Monitor Medieninformationen aus Bibliotheks- und externen Quellen. Beim LOD-Dienst der Französischen Nationalbibliothek können Nutzerinnen nun auch explizit nach Werken, Editionen und einzelnen Exemplaren recherchieren oder nach Personen, die mit einer bestimmten Rolle an einer Ausgabe beteiligt sind. Bei der Recherche über Themen werden zu einem Stichwort feinere oder gröbere Themen vorgeschlagen. Die semantische Verknüpfung von Termen verbessert die bibliothekarische Erschließung und Recherche, die Anreicherung von Ressourcen sowie Gestaltung von Oberflächen über verschiedene Begriffssysteme und Sprachen hinweg. Mit automatischen Verfahren zur Pflege von Crosskonkordanzen zwischen Thesauri befasst sich unter anderem die »Ontology Alignment Evaluation Initiative« (OAEI), hier wurden Unterschiede von Ontologie-Werkzeugen und Formaten (SKOS, OWL) betrachtet. Ein noch bestehender Mangel an Mehrsprachigkeit von Ontologien und Formaten wurde zum Beispiel im Vortrag der Ontology Engineering Group der Polytechnischen Universität Madrid (OEG-UPM) angedeutet.
    Metadaten verschiedener Quellen Die Dokumentation der Provenienz ist nicht nur für Medien wichtig, sondern - insbesondere wenn Metadaten verschiedener Quellen zusammengeführt werden - auch für die Metadaten selbst. Werden bibliothekarische Metadaten mit Daten aus Web2.0-Quellen angereichert (oder umgekehrt), so sollte mindestens zwischen der Herkunft aus Kulturerbeinstitutionen und Web2.0-Plattformen unterschieden werden. Im Provenance-Workshop wurden verschiedene Vokabulare zur Darstellung der Provenienz von Ressourcen und Metadaten diskutiert. Einen allgemein akzeptierten Ansatz für Linked Data scheint es bisher nicht zu geben - die verfügbaren Ansätze seien teils komplex, sodass auf Metadaten operierende Applikationen speziell auf sie ausgerichtet sein müssten, oder aber unterstützten nicht gut mehrfache Metaaussagen wie zum Beispiel verschachtelte Quellen. Daher empfehle sich eine fallweise pragmatische Vorgehensweise. Dass der Workshop zum Thema Provenance innerhalb weniger Tage ausgebucht war, weist ebenfalls auf die Aktualität des Themas hin. Um für die verschiedensprachigen Wikipedia-Artikel die Datenpflege zu erleichtern, sammelt Wikidata deren Fakten und stellt sie als Datenbasis bereit. Die sogenannten Claims von Wikidata enthalten neben den - über die lokalen Wikipedias divergierenden - Aussagen auch ihre Quellen und Zeitkontexte. Auf die Darstellung der Rechte und Lizenzen der veröffentlichten Bestände an Linked Data wurde mehrfach eingegangen, zum Beispiel in den Vorträgen der Universitätsbibliothek von Amsterdam und der OEG-UPM. Neben den bibliotheksspezifischen Formaten und Schnittstellen trägt auch dies zur Abschottung beziehungsweise Öffnung von Bibliotheksdaten bei. Im Kontext der »Europeana« wird an der Darstellung von Ressourcen-Lizenzen gearbeitet, mithilfe von URLs werden Ressource- und Lizenzinformationen dynamisch zusammen angezeigt."
  5. Ducker, S.; Linten, M.: Bedarfsgerecht, kontextbezogen, qualitätsgesichert : Von der Information zum Wertschöpfungsfaktor Wissen am Beispiel einer Wissenslandkarte als dynamisches System zur Repräsentation des Wissens in der Berufsbildungsforschung (2010) 0.01
    0.007264683 = product of:
      0.06901449 = sum of:
        0.05118713 = weight(_text_:deutsche in 4273) [ClassicSimilarity], result of:
          0.05118713 = score(doc=4273,freq=4.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.44272578 = fieldWeight in 4273, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=4273)
        0.017827362 = weight(_text_:und in 4273) [ClassicSimilarity], result of:
          0.017827362 = score(doc=4273,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.328536 = fieldWeight in 4273, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4273)
      0.10526316 = coord(2/19)
    
    Abstract
    In den Jahren 2002 bis 2007 wurde beim Bundesinstitut für Berufsbildung ein Wissensmanagement-System ("Kommunikations- und Informationssystem Berufliche Bildung") als Portallösung für die deutsche Berufsbildungsforschung aufgebaut. Zentrales Element hierbei ist eine Wissenslandkarte mit rund 1.000 dokumentierten Forschungsprojekten und Themen. Die Autoren zeigen am Beispiel der Literaturdatenbank Berufliche Bildung, wie auf der Basis eines Klassifizierungssystems verschiedene Formen der Wissensrepräsentation kombiniert werden und über die Vernetzung digitaler Informationen in einer gemeinsamen informationstechnologischen Infrastruktur auf verschiedenen Ebenen eine Wertschöpfungskette im Sinne von Linked Data entsteht.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  6. Daconta, M.C.; Oberst, L.J.; Smith, K.T.: ¬The Semantic Web : A guide to the future of XML, Web services and knowledge management (2003) 0.01
    0.0071879197 = product of:
      0.045523494 = sum of:
        0.0248269 = weight(_text_:literatur in 320) [ClassicSimilarity], result of:
          0.0248269 = score(doc=320,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.21169594 = fieldWeight in 320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=320)
        0.014062412 = weight(_text_:und in 320) [ClassicSimilarity], result of:
          0.014062412 = score(doc=320,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.25915268 = fieldWeight in 320, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=320)
        0.006634183 = product of:
          0.013268366 = sum of:
            0.013268366 = weight(_text_:22 in 320) [ClassicSimilarity], result of:
              0.013268366 = score(doc=320,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.15476047 = fieldWeight in 320, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=320)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    BK
    85.20 Betriebliche Information und Kommunikation
    Classification
    85.20 Betriebliche Information und Kommunikation
    Date
    22. 5.2007 10:37:38
    Footnote
    Rez. Amazon: "Die Autoren bezeichnen das Buch im Vorwort als strategischen Führer für Führungskräfte und Entwickler die sich einen Überblick über das Semantic Web und die dahinter stehende Vision machen wollen. Genau diesem Anspruch wird das Buch auch absolut gerecht. Die ersten beiden Kapitel beschreiben die Vision sowie die Möglichkeiten, die sich durch den Einsatz der in den nachfolgenden Kapiteln beschriebenen Techniken bieten. Die Autoren schaffen es anhand vieler praktischer Szenarien (die zwar teilweise meiner Einschätzung nach schon noch in einiger Zukunft liegen, aber die große Vision des ganzen schön vergegenwärtigen) sehr schnell den Leser für die Technik zu begeistern und mehr darüber wissen zu wollen. Die nachfolgenden Kapitel beschreiben die Techniken auf den verschiedenen semantischen Ebenen von XML als Basis für alles weitere, über Web Services, RDF, Taxonomies und Ontologies. Den Autoren gelingt es die beschriebenen Techniken so kurz und prägnant zu erklären, dass sich der Leser danach zumindest ein Bild über die Techniken an sich, sowie über deren komplexes Zusammenspiel machen kann. Auch für Entwickler würde ich das Buch empfehlen, da es einen sehr guten Einstieg in viele doch sehr neue Techniken bietet mit vielen Verweisen auf weitere Literatur. Alles in allem ein sehr gelungenes Buch, das es trotz relativ geringem Umfangs schafft, einen guten Überblick über dieses komplexe Thema zu vermitteln."
  7. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.01
    0.0071638213 = product of:
      0.0680563 = sum of:
        0.043447077 = weight(_text_:literatur in 4782) [ClassicSimilarity], result of:
          0.043447077 = score(doc=4782,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.024609223 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.024609223 = score(doc=4782,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.10526316 = coord(2/19)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  8. Weller, K.: Anforderungen an die Wissensrepräsentation im Social Semantic Web (2010) 0.01
    0.006843257 = product of:
      0.06501094 = sum of:
        0.04222723 = weight(_text_:deutsche in 4061) [ClassicSimilarity], result of:
          0.04222723 = score(doc=4061,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36523014 = fieldWeight in 4061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
        0.022783713 = weight(_text_:und in 4061) [ClassicSimilarity], result of:
          0.022783713 = score(doc=4061,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41987535 = fieldWeight in 4061, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
      0.10526316 = coord(2/19)
    
    Abstract
    Dieser Artikel gibt einen Einblick in die aktuelle Verschmelzung von Web 2.0-und Semantic Web-Ansätzen, die als Social Semantic Web beschrieben werden kann. Die Grundidee des Social Semantic Web wird beschrieben und einzelne erste Anwendungsbeispiele vorgestellt. Ein wesentlicher Schwerpunkt dieser Entwicklung besteht in der Umsetzung neuer Methoden und Herangehensweisen im Bereich der Wissensrepräsentation. Dieser Artikel stellt vier Schwerpunkte vor, in denen sich die Wissensrepräsentationsmethoden im Social Semantic Web weiterentwickeln müssen und geht dabei jeweils auf den aktuellen Stand ein.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  9. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.01
    0.0062692207 = product of:
      0.059557594 = sum of:
        0.043447077 = weight(_text_:literatur in 5809) [ClassicSimilarity], result of:
          0.043447077 = score(doc=5809,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.016110517 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.016110517 = score(doc=5809,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.10526316 = coord(2/19)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  10. Göbel, R.: Semantic Web & Linked Data für professionelle Informationsangebote : Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen (2010) 0.01
    0.006183663 = product of:
      0.058744796 = sum of:
        0.036194768 = weight(_text_:deutsche in 4258) [ClassicSimilarity], result of:
          0.036194768 = score(doc=4258,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.3130544 = fieldWeight in 4258, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
        0.022550028 = weight(_text_:und in 4258) [ClassicSimilarity], result of:
          0.022550028 = score(doc=4258,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 4258, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
      0.10526316 = coord(2/19)
    
    Abstract
    Mit dem Hype um Web 3.0 und insbesondere den Schlagworten "Semantic Web" und "Linked Open Data" wird wieder einmal die Hoffnung geweckt mit einem Mausklick (bzw. Agenten) alle relevanten Informationen zu erhalten, die man braucht - also perfekte Vollständigkeit und Relevanz über das gesamte WWW hinweg. Informationsangebote müssen hierfür bestimmte strukturelle Voraussetzungen erfüllen. Der Vortrag geht unter praxisorientierten Gesichtspunkten den Fragen nach, welche Strukturen im Rahmen professioneller Wirtschaftsinformationsangebote bereits vorhanden sind und welcher weitere Nutzen erzeugt werden kann. Können sich daraus neue Chancen ergeben oder haben die Anbieter ihre Hausaufgaben für die semantische Suche und "connected data" bereits erledigt und können in Ruhe abwarten bis die hochfliegenden Hoffnungen in der Realität ankommen?
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  11. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.01
    0.006140418 = product of:
      0.05833397 = sum of:
        0.037240352 = weight(_text_:literatur in 1555) [ClassicSimilarity], result of:
          0.037240352 = score(doc=1555,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.31754392 = fieldWeight in 1555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.02109362 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
          0.02109362 = score(doc=1555,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38872904 = fieldWeight in 1555, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
      0.10526316 = coord(2/19)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
    Source
    Bibliothek: Forschung und Praxis. 38(2014) H.2, S.257-265
  12. Carstens, C.; Rittberger, M.: Einsatz von Semantic Web-Technologien am Informationszentrum Bildung (2010) 0.01
    0.0058296225 = product of:
      0.055381414 = sum of:
        0.04222723 = weight(_text_:deutsche in 4272) [ClassicSimilarity], result of:
          0.04222723 = score(doc=4272,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36523014 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4272)
        0.013154183 = weight(_text_:und in 4272) [ClassicSimilarity], result of:
          0.013154183 = score(doc=4272,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 4272, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4272)
      0.10526316 = coord(2/19)
    
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  13. Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004) 0.00
    0.004996819 = product of:
      0.04746978 = sum of:
        0.036194768 = weight(_text_:deutsche in 4681) [ClassicSimilarity], result of:
          0.036194768 = score(doc=4681,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.3130544 = fieldWeight in 4681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=4681)
        0.011275014 = weight(_text_:und in 4681) [ClassicSimilarity], result of:
          0.011275014 = score(doc=4681,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.20778441 = fieldWeight in 4681, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4681)
      0.10526316 = coord(2/19)
    
    Abstract
    Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
    Issue
    Deutsche Übersetzung.
  14. Hitzler, P.; Krötzsch, M.; Rudolph, S.; Sure, Y.: Semantic Web : Grundlagen (2008) 0.00
    0.0049908585 = product of:
      0.047413155 = sum of:
        0.021009749 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.021009749 = score(doc=358,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.026403405 = product of:
          0.05280681 = sum of:
            0.05280681 = weight(_text_:allgemein in 358) [ClassicSimilarity], result of:
              0.05280681 = score(doc=358,freq=4.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.41049585 = fieldWeight in 358, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=358)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Das Buch Semantic Web Grundlagen vermittelt als erstes deutschsprachiges Lehrbuch die Grundlagen des Semantic Web in verständlicher Weise. Es ermöglicht einen einfachen und zügigen Einstieg in Methoden und Technologien des Semantic Web und kann z.B. als solide Grundlage für die Vorbereitung und Durchführung von Vorlesungen genutzt werden. Die Autoren trennen dabei sauber zwischen einer intuitiven Hinführung zur Verwendung semantischer Technologien in der Praxis einerseits, und der Erklärung formaler und theoretischer Hintergründe andererseits. Nur für letzteres werden Grundkenntnisse in Logik vorausgesetzt, die sich bei Bedarf jedoch durch zusätzliche Lektüre und mit Hilfe eines entsprechenden Kapitels im Anhang aneignen lassen.Das Lehrbuch richtet sich primär an Studenten mit Grundkenntnissen in Informatik sowie an interessierte Praktiker welche sich im Bereich Semantic Web fortbilden möchten.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Content
    Inhalt: Die Idee des Semantic Web - Stuktur mit XML - Einfache Ontologien in RDF und RDF Schema - Formale Semantik von RDF(S) - Ontologien in OWL - Ontologien in OWL - Formale Semantik von OWL - Anfragesprachen - Pradikatenlogik - kurzgefasst - Naive Mengenlehre - kurzgefasst
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  15. Kleinz, T.: Beute im Netz : Das Web 2.0 hilft, Freunde mit gleichen Interessen zu finden - doch auch Geheimdienste und Betrüger lesen mit (2006) 0.00
    0.004943216 = product of:
      0.046960555 = sum of:
        0.016768359 = weight(_text_:und in 6001) [ClassicSimilarity], result of:
          0.016768359 = score(doc=6001,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3090199 = fieldWeight in 6001, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6001)
        0.030192196 = weight(_text_:leben in 6001) [ClassicSimilarity], result of:
          0.030192196 = score(doc=6001,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.21837488 = fieldWeight in 6001, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6001)
      0.10526316 = coord(2/19)
    
    Content
    "Knapp zwei Jahre ist es her, seitdem der USVerleger Tim O'Reilly das "Web 2.0" ausgerufen hat - das soziale Internet. Seitdem hat sich das Angebot im weltumspannenden Datennetz gewandelt. Nicht Redaktionen oder Firmen gestalten zunehmend Angebote, sondern die Nutzer selbst. Sie schreiben in Weblogs über ihren Alltag, tragen ihre Freunde in Kontaktbörsen ein, stellen Fotos, Videos und Musik ins Netz. Doch nicht nur Freunde nutzen die Vorteile des neuen Netzes - auch Betrüger, Geheimdienste und Firmen sind dabei. "Die Weisheit der Massen kann viel zu leicht in den Wahnsinn der Massen umschlagen", warnt Web-2.0-Vordenker O'Reilly. Er spricht von der "dunklen Seite" des Web 2.0. "Kollektive Intelligenz erfordert das Speichern gewaltiger Datenmengen. Diese können genutzt werden, um innovative Dienste zur Verfügung zu stellen. Die gleichen Daten können aber auch unsere Privatsphäre bedrohen." So tobt in einer Mailingliste der Online-Enzyklopädie Wikipedia eine Debatte über ein Auswertungswerkzeug. Eine Webseite trug zahlreiche Details über alle WikipediaNutzer zusammen. Sie zeigte, wer wie lange und in welchen Feldern der Wikipedia tätig war. Übersichtliche Wochengrafiken veranschaulichten, zu welchen Tageszeiten welche Nutzer gerne aktiv sind. Einem ehemaligen Mitwirkenden gefällt das nicht. Uli Fuchs beklagte, solche Auswertungen verstießen gegen sein Recht auf informationelle Selbstbestimmung und wahrscheinlich gegen mehrere Gesetze. Die Wikipedia-Verantwortlichen knickten ein: Bis zu einer rechtlichen Klärung schalteten sie das Auswertungswerkzeug ab. Fuchs spricht einen brisanten Punkt an. Penibel verzeichnet die Online-Enzyklopädie jede kleinste Änderung, die ein User an den Artikeln vornimmt. Die Daten sind bis auf den letzten Kommafehler auch nach Jahren noch einsehbar. In den falschen Händen können solche Informationen brisant sein. Sind etwa Arbeitnehmer krank gemeldet, geraten sie vielleicht in Erklärungsnöte, wenn sie zur gleichen Zeit an Wikipedia-Artikeln arbeiten. Ein Großteil der Nutzer versteckt sich daher hinter Pseudonymen.
    Auch "My Space" verdeutlicht die Schattenseite des Web 2.0: In mehreren hundert Fällen ermittelt die US-Bundespolizei FBI wegen sexueller Belästigungen von Kindern und Jugendlichen. Die Plattform hat reagiert und wirbt seit dieser Woche in Fernsehspots für den verantwortungsvollen Umgang mit den eigenen Daten. Durchschlagender Erfolg ist nicht zu erwarten: So lautet ein Ratschlag an die Jugendlichen, das eigene Zugangs-Passwort den Eltern mitzuteilen - was der Empfehlung gleichkommt, das eigene Tagebuch bei den Eltern zu hinterlegen. Eine weitere Bedrohung für die Privatsphäre geht von den Konzernen aus, die diese Dienste anbieten. Die meisten sind kostenlos, sie sollen über Werbung und Partnerschaften Geld bringen. So hat der Internet-Riese Yahoo eine ganze Reihe von Web2.0-Firmen gekauft, darunter das Bilderportal "Flickr" und den Bookmark-Dienst "Del.icio.us". "My Space" gehört mittlerweile zum Imperium des Medien-Moguls Rupert Murdoch. O'Reilly warnt: "Diese Firmen werden einen enormen Einfluss auf unser aller Leben haben - und sie können ihn zum Guten wie zum Schlechten nutzen." Der Identitätsdiebstahl im Internet ist mittlerweile zu einem ernsthaften Problem geworden. Kriminelle gehen mit Daten wie Namen und Kreditkartenummern auf Betrugstour. Sie verursachten laut amtlicher Statistik allein im Jahr 2004 Schäden in Höhe von sechs Milliarden Dollar - aktuelle Schätzungen gehen von bis zu 50 Milliarden Dollar Schaden pro Jahr aus. Aber nicht nur Betrüger beuten den Datenschatz im Netz aus, auch Geheimdienste zeigen Interesse. So berichtet das Wissenschaftsmagazin New Scientist, der US-Geheimdienst National Security Agency erforsche intensiv Techniken, mit deren Hilfe die Agenten soziale Netzwerke überwachen und systematisch auswerten können. Das Interesse kommt nicht von ungefähr: Web-2.0-Dienste erfreuen sich einer großen Beliebtheit. So verzeichnet das erst vor zwei Jahren gegründete Portal "My Space" schon fast 100 Millionen Nutzer, die sich über Musik- und andere Konsumvorlieben austauschen. Besonders bei Musikern ist die Plattform beliebt: Mittlerweile sollen sich dort 400 000 Bands tummeln, die ihre Arbeit auf der Plattform vorstellen."
  16. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.00
    0.0049069026 = product of:
      0.046615575 = sum of:
        0.01965282 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.01965282 = score(doc=1847,freq=70.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.026962755 = sum of:
          0.018670026 = weight(_text_:allgemein in 1847) [ClassicSimilarity], result of:
            0.018670026 = score(doc=1847,freq=2.0), product of:
              0.12864152 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.024482876 = queryNorm
              0.1451322 = fieldWeight in 1847, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1847)
          0.008292729 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
            0.008292729 = score(doc=1847,freq=2.0), product of:
              0.08573486 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.024482876 = queryNorm
              0.09672529 = fieldWeight in 1847, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1847)
      0.10526316 = coord(2/19)
    
    Abstract
    LibraryThing ist eine zur Klasse der Sozialen Software gehörende Webanwendung, in der Benutzer gemeinsam Bücher verwalten und miteinander in Kontakt treten können. Die Webseite wurde Ende August 2005 veröffentlicht und verzeichnet inzwischen (Juli 2007) über 235.000 Benutzer und 16 Millionen verschiedene Bücher. Jeder Nutzer verfügt über eine eigene Sammlung, die in LibraryThing als "Bibliotheken" oder "Katalog" bezeichnet wird. Die Katalogisierung geschieht in eine gemeinsame Datenbank, die von allen Nutzern direkt bearbeitet werden kann. Da es sich um eine reine Webanwendung handelt, muss zur Nutzung keine weitere Software installiert werden. Die Nutzung ist für bis zu 200 Medien kostenlos, eine jährliche Mitgliedschaft kostet 10 $ und eine lebenslange Mitgliedschaft 25 $. Bibliotheken und andere nichtkommerzielle Einrichtungen zahlen 15 $ pro Jahr. Dieses Preismodell hat sich auch nicht geändert, nachdem 40% des Unternehmens im Mai 2006 vom Gebrauchtbuchhändler AbeBooks übernommen wurden. Die Mehrheit hält weiterhin der Gründer Tim Spalding, der die ursprünglich als privates Projekt begonnene Seite mit inzwischen zwei weiteren Entwicklern und einer Bibliothekarin kontinuierlich weiterentwickelt.
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
    Source
    Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2007, H.137, S.12-13
    Theme
    Katalogfragen allgemein
  17. Web 2.0-Pionier ortet kollektive Intelligenz im Internet : Technologieschübe kommen über mobile Endgeräte und Spracherkennung (2007) 0.00
    0.0046006725 = product of:
      0.043706387 = sum of:
        0.017827362 = weight(_text_:und in 670) [ClassicSimilarity], result of:
          0.017827362 = score(doc=670,freq=40.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.328536 = fieldWeight in 670, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=670)
        0.025879025 = weight(_text_:leben in 670) [ClassicSimilarity], result of:
          0.025879025 = score(doc=670,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.18717846 = fieldWeight in 670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.0234375 = fieldNorm(doc=670)
      0.10526316 = coord(2/19)
    
    Content
    "Die Vision von der künstlichen Intelligenz wird Wirklichkeit, sagt Computerbuchverleger und Web 2.0-Pionier Tim O'Reilly. Das Leben mit dem Internet sei viel weiter als manche ahnungslose Nutzer meinten. Und es gebe keinen Weg zurück. O'Reilly ist sich allerdings nicht sicher, ob der nächste große Technologie-Schub mit dem WorldWideWeb verbunden ist. " Wenn wir über unseren Umgang mit Computern reden, verbinden wir das immer noch damit, vor einem Bildschirm zu sitzen und auf einer Tastatur zu tippen. Aber Computer werden immer mehr in den Hintergrund gedrängt. Die offensichtliche Veränderung ist zunächst - was ja viele Menschen auch schon beschrieben haben-, dass auch mobile Endgeräte oder Mobiltelefone als Plattform dienen. Damit ist auch verbunden, dass Spracherkennung immer besser wird. Oder dass Fotoapparate mittlerweile mit GPS ausgestattet sind. Wenn Sie damit ein Foto machen, ist der Ort automatisch Teil des Fotos und damit Teil der Information, die Sie zum Beispiel auf eine Web-2.0-Anwendung wie flickr stellen. Und plötzlich lernt das globale Gehirn etwas, was Sie gar nicht beabsichtigt haben", betont O'Reilly. Microsoft habe eine Software vorgestellt, die Photosynth heißt. Mit ihr könnten aus aneinander gereihten Digitalfotos 3-D Modelle entworfen werden. Man müsse die Fotos nur mit "Tags" versehen, also markieren, und jemand anderes nutzt das und führt alles zu einem 3-D Modell zusammen. "Wir bewegen uns also in Richtung künstlicher Intelligenz. Allerdings ist immer noch ein Mensch dahinter, der dem Programm sagt, was es tun soll. Aber das Beispiel zeigt, was mit der Nutzung kollektiver Intelligenz gemeint ist. Wir geben immer mehr Daten in das globale Netzwerk ein, und Menschen schreiben Programme, die neue Verbindungen erstellen. Es ist, als würden die Synapsen des kollektiven Gehirns wachsen. Ich glaube, wir dürfen Überraschungen erwarten", meint O'Reilly.
    Die Informationen aus dem Internet werden nach seiner Erkenntnis auf viele verschiedene Arten zugänglich sein. "Wir denken immer, es gibt Milliarden Computer da draußen - aber das stimmt nicht. Es gibt eigentlich nur einen, und darum geht es im Web 2.0. Alles wird mit allem verbunden. Und was wir heute unter einem Computer verstehen ist eigentlich nur ein Zugangsgerät zu dem einen weltweiten elektronischen Gehirn, das wir erschaffen", sagt O'Reilly. Webexperten halten die Visionen von O'Reilly für realistisch: "So wird die Spracherkennung eine Schlüsseltechnologie sein für den Zugriff auf das vernetzte Weltwissen. Wie häufig hätten wir gerne im Alltag genaue Informationen zu Sportergebnissen, Telefonnummern oder Adressen. Unendlich viele Dinge, die wir, wenn wir gerade im Internet wären sofort 'er-googlen' würden. Da das aber in der Freizeit und von unterwegs selten der Fall ist und der Zugriff über das Handy mit Tastatur oder Touch-screen zu mühselig ist, verzichten wir meistens darauf unseren Wissenshunger sofort zu stillen. Anders wäre es, wenn wir mit einfachen gesprochenen Suchbefehlen unsere Anfrage starten und die Suche dann bei Bedarf eingrenzen könnten, genauso, wie wir es derzeitig mit der PC-Tastatur und der Maus tun und das ganze jederzeit und von jedem Ort aus", kommentiert Lupo Pape, Geschäftsführer von SemanticEdge, die Analysen des Web-2.0-Vordenkers.
    Die fehlenden Bausteine dafür seien jetzt schon verfügbar, so dass es nur eine Frage der Zeit seit, bis sich die Menschen weltweit an dieses neue Interface gewöhnt haben. "Die Spracherkennung im personalisierten Diktiermodus ist schon sehr weit gereift, die mobilen Datenzugriffe werden immer schneller und auch Flat-rates im Mobilfunk werden vermutlich bald genauso verbreitet sein wie im DSL-Geschäft", sagt Pape. Spannender werde es noch, wenn man in der nächsten Generation des Internets, dem SemanticWeb, auf eine gesprochene Frage nicht eine Flut von Weblinks angezeigt bekommt, sondern das Sprachdialogsystem gleich die richtige Antwort gibt. "Viele Informationen liegen bereits strukturiert vor wie Fahrplaninformationen, Telefonnummern, Sportergebnisse oder bewertete Restaurants und sonstige Adressen. Was fehlt, ist eine Art Yahoo des 'Voicewebs', über das sich jeder personalisiert seine gewünschten Angebote zusammenstellen und über Sprache oder Multimodale Interfaces abfragen kann.""
  18. Semantic web & linked data : Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis (2010) 0.00
    0.0043874495 = product of:
      0.041680768 = sum of:
        0.018097384 = weight(_text_:deutsche in 1516) [ClassicSimilarity], result of:
          0.018097384 = score(doc=1516,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.1565272 = fieldWeight in 1516, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1516)
        0.023583384 = weight(_text_:und in 1516) [ClassicSimilarity], result of:
          0.023583384 = score(doc=1516,freq=70.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.43461227 = fieldWeight in 1516, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1516)
      0.10526316 = coord(2/19)
    
    Abstract
    Informationswissenschaft und Informatik nähern sich auf vielen Gebieten bei ihren Projekten und in ihren Zielsetzungen immer stärker an. Ganz besonders deutlich wird dies vor dem Hintergrund von Semantic Web und Linked Data. Die Textanalyse und Fixierung der Essenz einer Publikation in Form ihrer belastbaren Aussagen und zugrunde liegender Daten sowie deren Speicherung und Aufbereitung für die Nutzung gehören zu den professionellen Aktivitäten der in der DGI organisierten Informationsfachleute. Das Semantic Web versprocht, bei entsprechender intellektueller Vorarbeit, diese Tätigkeiten künftig zu erleichtern. Der Tgaungsband macht an vielen Beispielen anschaulich klar, wie die in Informationswissenschaft und -praxis über Jahrzehnte erarbeiteten Grundlagen und Werkzeuge jetzt für den Aufbau der zukünftigen Informationsinfrastrukturen eingesetzt werden können. Er vereint die Textfassungen der Beiträge, die durch das Programmkomitee für die 1. DGI-Konferenz angenommen worden sind, dazu gehören u.a. wissensbasierte Anwendungen in der Wirtschaft, Aufbau von Ontologien mittels Thesauri, Mehrsprachigkeit und Open Data.
    Content
    Enthält die Beiträge: ONTOLOGIEN UND WISSENSREPRÄSENTATIONEN: DIE VERLINKUNG ZWISCHEN INFORMATIONSSUCHENDEN UND INFORMATIONSRESSOURCEN Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN / Fabio Ricci und Rene Schneider - Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage / Sonja Öttl, Daniel Streiff, Niklaus Stettler und Martin Studer - Anforderungen an die Wissensrepräsentation im Social Semantic Web / Katrin Weller SEMANTIC WEB & LINKED DATA: WISSENSBASIERTE ANWENDUNGEN IN DER WIRTSCHAFT Semantic Web & Linked Data für professionelle Informationsangebote. Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen / Ruth Göbel - Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed / Michael R. Alvers Produktion und Distribution für multimedialen Content in Form von Linked Data am Beispiel von PAUX / Michael Dreusicke DAS RÜCKRAT DES WEB DER DATEN: ONTOLOGIEN IN BIBLIOTHEKEN Linked Data aus und für Bibliotheken: Rückgratstärkung im Semantic Web / Reinhard Altenhöner, Jan Hannemann und Jürgen Kett - MODS2FRBRoo: Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen im Bereich des kulturellen Erbes / Hans-Georg Becker - Suchmöglichkeiten für Vokabulare im Semantic Web / Friederike Borchert
    LINKED DATA IM GEOINFORMATIONSBEREICH - CHANCEN ODER GEFAHR? Geodaten - von der Verantwortung des Dealers / Karsten Neumann - Computergestützte Freizeitplanung basierend auf Points Of Interest / Peter Bäcker und Ugur Macit VON LINKED DATA ZU VERLINKTEN DIALOGEN Die globalisierte Semantic Web Informationswissenschaftlerin / Dierk Eichel - Kommunikation und Kontext. Überlegungen zur Entwicklung virtueller Diskursräume für die Wissenschaft / Ben Kaden und Maxi Kindling - Konzeptstudie: Die informationswissenschaftliche Zeitschrift der Zukunft / Lambert Heller und Heinz Pampel SEMANTIC WEB & LINKED DATA IM BILDUNGSWESEN Einsatz von Semantic Web-Technologien am Informationszentrum Bildung / Carola Carstens und Marc Rittberger - Bedarfsgerecht, kontextbezogen, qualitätsgesichert: Von der Information zum Wertschöpfungsfaktor Wissen am Beispiel einer Wissenslandkarte als dynamisches System zur Repräsentation des Wissens in der Berufsbildungsforschung / Sandra Dücker und Markus Linten - Virtuelle Forschungsumgebungen und Forschungsdaten für Lehre und Forschung: Informationsinfrastrukturen für die (Natur-)Wissenschaften / Matthias Schulze
    OPEN DATA - OPENS PROBLEMS? Challenges and Opportunities in Social Science Research Data Management / Stefan Kramer - Aktivitäten von GESIS im Kontext von Open Data und Zugang zu sozialwissenschaftlichen Forschungsergebnissen / Anja Wilde, Agnieszka Wenninger, Oliver Hopt, Philipp Schaer und Benjamin Zapilko NUTZER UND NUTZUNG IM ZEITALTER VON SEMANTIC WEB & LINKED DATA Die Erfassung, Nutzung und Weiterverwendung von statistischen Informationen - Erfahrungsbericht / Doris Stärk - Einsatz semantischer Technologien zur Entwicklung eines Lerntrajektoriengenerators in frei zugänglichen, nicht personalisierenden Lernplattformen / Richard Huber, Adrian Paschke, Georges Awad und Kirsten Hantelmann OPEN DATA: KONZEPTE - NUTZUNG - ZUKUNFT Zur Konzeption und Implementierung einer Infrastruktur für freie bibliographische Daten / Adrian Pohl und Felix Ostrowski - Lösung zum multilingualen Wissensmanagement semantischer Informationen / Lars Ludwig - Linked Open Projects: Nachnutzung von Projektergebnissen als Linked Data / Kai Eckert AUSBLICK INFORMATIONSKOMPETENZ GMMIK ['gi-mik] - Ein Modell der Informationskompetenz / Aleksander Knauerhase WORKSHOP Wissensdiagnostik als Instrument für Lernempfehlungen am Beispiel der Facharztprüfung / Werner Povoden, Sabine Povoden und Roland Streule
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
  19. Van de Sompel, H.: Thoughts about repositories, use, and re-use (2008) 0.00
    0.0038099757 = product of:
      0.072389536 = sum of:
        0.072389536 = weight(_text_:deutsche in 4366) [ClassicSimilarity], result of:
          0.072389536 = score(doc=4366,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.6261088 = fieldWeight in 4366, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=4366)
      0.05263158 = coord(1/19)
    
    Content
    Vortrag "One more step towards the European digital library: International Conference, Deutsche Nationalbibliothek, Frankfurt am Main 31 January - 1 February 2008.
  20. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.00
    0.0036656081 = product of:
      0.034823276 = sum of:
        0.019887256 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.019887256 = score(doc=132,freq=28.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.014936021 = product of:
          0.029872041 = sum of:
            0.029872041 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.029872041 = score(doc=132,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Authors

Languages

  • d 81
  • e 48

Types

  • a 83
  • el 24
  • m 18
  • x 10
  • s 9
  • r 3
  • n 2
  • More… Less…

Subjects

Classifications