Search (60 results, page 1 of 3)

  • × theme_ss:"Semantic Web"
  1. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.10
    0.100376114 = product of:
      0.20075223 = sum of:
        0.20075223 = sum of:
          0.1451811 = weight(_text_:daten in 4331) [ClassicSimilarity], result of:
            0.1451811 = score(doc=4331,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5949466 = fieldWeight in 4331, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4331)
          0.055571117 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4331,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4331, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4331)
      0.5 = coord(1/2)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
  2. Auer, S.; Lehmann, J.; Bizer, C.: Semantische Mashups auf Basis Vernetzter Daten (2009) 0.06
    0.055007108 = product of:
      0.110014215 = sum of:
        0.110014215 = product of:
          0.22002843 = sum of:
            0.22002843 = weight(_text_:daten in 4868) [ClassicSimilarity], result of:
              0.22002843 = score(doc=4868,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.9016681 = fieldWeight in 4868, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4868)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Semantische Mashups sind Anwendungen, die vernetzte Daten aus mehreren Web-Datenquellen mittels standardisierter Datenformate und Zugriffsmechanismen nutzen. Der Artikel gibt einen Überblick über die Idee und Motivation der Vernetzung von Daten. Es werden verschiedene Architekturen und Ansätze zur Generierung von RDF-Daten aus bestehenden Web 2.0-Datenquellen, zur Vernetzung der extrahierten Daten sowie zur Veröffentlichung der Daten im Web anhand konkreter Beispiele diskutiert. Hierbei wird insbesondere auf Datenquellen, die aus sozialen Interaktionen hervorgegangen sind eingegangen. Anschließend wird ein Überblick über verschiedene, im Web frei zugängliche semantische Mashups gegeben und auf leichtgewichtige Inferenzansätze eingegangen, mittels derer sich die Funktionalität von semantischen Mashups weiter verbessern lässt.
  3. Pellegrini, T.: Was ist das Semantic Web? (2006) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 1466) [ClassicSimilarity], result of:
              0.1555836 = score(doc=1466,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 1466, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1466)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die historischen Wurzeln des Semantic Web reichen zurück in die Artificial Intelligence Forschung der 1960er und -70er Jahre. Konzepte aus der Light Weight Artificial Intelligence wie Frames, Microworlds und Heuristic Programming stellten erste Versuche der maschinenverarbeitbaren Wissensrepräsentation dar. Hier ging es nicht darum, intelligentes Verhalten zu simulieren, sondern Methoden zu entwickeln, die den Menschen in seiner Entscheidungsfindung unterstützen. Durch die inhaltliche Beschreibung (semantische Anreicherung) von Datenbeständen mit maschinenlesbaren Metadaten und Scripts wurden Maschinen in die Lage versetzt autonom Daten zu verarbeiten. Der Computer sollte in der Lage sein, den Kontext, in dem Daten erzeugt und abgelegt werden, zu "verstehen" und darauf basierend für den Nutzer relevante Daten zu selektieren, zu verarbeiten und auszugeben.
  4. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.04
    0.03646577 = product of:
      0.07293154 = sum of:
        0.07293154 = sum of:
          0.05556557 = weight(_text_:daten in 1847) [ClassicSimilarity], result of:
            0.05556557 = score(doc=1847,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22770557 = fieldWeight in 1847, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1847)
          0.017365975 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
            0.017365975 = score(doc=1847,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 1847, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1847)
      0.5 = coord(1/2)
    
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
  5. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 1555) [ClassicSimilarity], result of:
              0.13335738 = score(doc=1555,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 1555, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1555)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
  6. Danowski, P.; Goldfarb, D.; Schaffner, V.; Seidler, W.: Linked (Open) Data - Bibliographische Daten im Semantic Web : Bericht der AG Linked Data an die Verbundvollversammlung (16. Mai 2013) (2013) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 814) [ClassicSimilarity], result of:
              0.12832318 = score(doc=814,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 814, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=814)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Willer, M.; Dunsire, G.: Bibliographic information organization in the Semantic Web (2013) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 2143) [ClassicSimilarity], result of:
              0.12832318 = score(doc=2143,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 2143, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2143)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    RSWK
    Bibliografische Daten / Informationsmanagement / Semantic Web / Functional Requirements for Bibliographic Records
    Bibliografische Daten / Semantic Web / Metadaten / Linked Data
    Subject
    Bibliografische Daten / Informationsmanagement / Semantic Web / Functional Requirements for Bibliographic Records
    Bibliografische Daten / Semantic Web / Metadaten / Linked Data
  8. Nagenborg, M..: Privacy im Social Semantic Web (2009) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 4876) [ClassicSimilarity], result of:
              0.12703346 = score(doc=4876,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 4876, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4876)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Schwerpunkt dieses Beitrages liegt auf dem Design von Infrastrukturen, welche es ermöglichen sollen, private Daten kontrolliert preiszugeben und auszutauschen. Zunächst wird daran erinnert, dass rechtliche und technische Maßnahmen zum Datenschutz stets auch dazu dienen, den Austausch von Daten zu ermöglichen. Die grundlegende Herausforderung besteht darin, der sozialen und politischen Bedeutung des Privaten Rechnung zu tragen. Privatheit wird aus der Perspektive der Informationsethik dabei als ein normatives, handlungsleitendes Konzept verstanden. Als Maßstab für die Gestaltung der entsprechenden Infrastrukturen wird auf Helen Nissenbaums Konzept der "privacy as contextual integrity" zurückgegriffen, um u. a. die Ansätze der "end-to-end information accountability" und des "Privacy Identity Management for Europe"- Projektes zu diskutieren.
  9. Zumstein, P.: ¬Die Rolle des Semantic Web für Bibliotheken : Linked Open Data und mehr: Welche Strategien können hier die Bibliotheken in die Zukunft führen? (2012) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 2450) [ClassicSimilarity], result of:
              0.12703346 = score(doc=2450,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 2450, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2450)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Semantic Web ist die Vision einer Erweiterung des World Wide Webs, so dass die Daten nicht nur für Menschen leicht verständlich dargestellt werden, sondern auch von Maschinen verwertbar sind. Mit einer entsprechenden Ausgestaltung von Links zwischen einzelnen Webressourcen wäre das Web als riesige, globale Datenbank nutzbar. Darin könnten dann Softwareagenten für uns auch komplexe Fragestellungen und Planungen bearbeiten. In dieser Arbeit soll gezeigt werden, dass jede Bibliothek interessante Daten für das Semantic Web hat und umgekehrt von ihm profitieren kann. Ein Schwerpunkt liegt auf möglichen Anwendungsszenarien mit dem speziellen Fokus beim Bibliothekswesen.
  10. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 1761) [ClassicSimilarity], result of:
              0.10888583 = score(doc=1761,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 1761, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1761)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
  11. Stenzhorn, H.; Samwald, M.: ¬Das Semantic Web als Werkzeug in der biomedizinischen Forschung (2009) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 4878) [ClassicSimilarity], result of:
              0.10888583 = score(doc=4878,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 4878, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4878)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der biomedizinischen Forschung werden besonders in den letzten Jahren vermehrt enorme Mengen an neuen Daten produziert und diese in Folge verstärkt per Internet veröffentlicht. Viele Experten sehen in dieser Vorgehensweise die Chance zur Entdeckung bisher unbekannter biomedizinischer Erkenntnisse. Um dies jedoch zu ermöglichen, müssen neue Wege gefunden werden, die gewonnenen Daten effizient zu verarbeiten und zu verwalten. In dem vorliegenden Artikel werden die Möglichkeiten betrachtet, die das Semantic Web hierzu anbieten kann. Hierfür werden die relevanten Technologien des Semantic Web im speziellen Kontext der biomedizinischen Forschung betrachtet. Ein Fokus liegt auf der Anwendung von Ontologien in der Biomedizin: Es wird auf deren Vorteile eingegangen, aber auch auf möglichen Probleme, die deren Einsatz in einem erweiterten wissenschaftlichen Umfeld mit sich bringen können.
  12. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.0271435 = product of:
      0.054287 = sum of:
        0.054287 = product of:
          0.162861 = sum of:
            0.162861 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.162861 = score(doc=701,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  13. Dextre Clarke, S.G.: Challenges and opportunities for KOS standards (2007) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 4643) [ClassicSimilarity], result of:
              0.097249456 = score(doc=4643,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 4643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4643)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.2007 15:41:14
  14. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.02
    0.022684548 = product of:
      0.045369096 = sum of:
        0.045369096 = product of:
          0.09073819 = sum of:
            0.09073819 = weight(_text_:daten in 115) [ClassicSimilarity], result of:
              0.09073819 = score(doc=115,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.37184164 = fieldWeight in 115, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=115)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
  15. Kleinz, T.: Beute im Netz : Das Web 2.0 hilft, Freunde mit gleichen Interessen zu finden - doch auch Geheimdienste und Betrüger lesen mit (2006) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 6001) [ClassicSimilarity], result of:
              0.089826226 = score(doc=6001,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 6001, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6001)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Knapp zwei Jahre ist es her, seitdem der USVerleger Tim O'Reilly das "Web 2.0" ausgerufen hat - das soziale Internet. Seitdem hat sich das Angebot im weltumspannenden Datennetz gewandelt. Nicht Redaktionen oder Firmen gestalten zunehmend Angebote, sondern die Nutzer selbst. Sie schreiben in Weblogs über ihren Alltag, tragen ihre Freunde in Kontaktbörsen ein, stellen Fotos, Videos und Musik ins Netz. Doch nicht nur Freunde nutzen die Vorteile des neuen Netzes - auch Betrüger, Geheimdienste und Firmen sind dabei. "Die Weisheit der Massen kann viel zu leicht in den Wahnsinn der Massen umschlagen", warnt Web-2.0-Vordenker O'Reilly. Er spricht von der "dunklen Seite" des Web 2.0. "Kollektive Intelligenz erfordert das Speichern gewaltiger Datenmengen. Diese können genutzt werden, um innovative Dienste zur Verfügung zu stellen. Die gleichen Daten können aber auch unsere Privatsphäre bedrohen." So tobt in einer Mailingliste der Online-Enzyklopädie Wikipedia eine Debatte über ein Auswertungswerkzeug. Eine Webseite trug zahlreiche Details über alle WikipediaNutzer zusammen. Sie zeigte, wer wie lange und in welchen Feldern der Wikipedia tätig war. Übersichtliche Wochengrafiken veranschaulichten, zu welchen Tageszeiten welche Nutzer gerne aktiv sind. Einem ehemaligen Mitwirkenden gefällt das nicht. Uli Fuchs beklagte, solche Auswertungen verstießen gegen sein Recht auf informationelle Selbstbestimmung und wahrscheinlich gegen mehrere Gesetze. Die Wikipedia-Verantwortlichen knickten ein: Bis zu einer rechtlichen Klärung schalteten sie das Auswertungswerkzeug ab. Fuchs spricht einen brisanten Punkt an. Penibel verzeichnet die Online-Enzyklopädie jede kleinste Änderung, die ein User an den Artikeln vornimmt. Die Daten sind bis auf den letzten Kommafehler auch nach Jahren noch einsehbar. In den falschen Händen können solche Informationen brisant sein. Sind etwa Arbeitnehmer krank gemeldet, geraten sie vielleicht in Erklärungsnöte, wenn sie zur gleichen Zeit an Wikipedia-Artikeln arbeiten. Ein Großteil der Nutzer versteckt sich daher hinter Pseudonymen.
    Auch "My Space" verdeutlicht die Schattenseite des Web 2.0: In mehreren hundert Fällen ermittelt die US-Bundespolizei FBI wegen sexueller Belästigungen von Kindern und Jugendlichen. Die Plattform hat reagiert und wirbt seit dieser Woche in Fernsehspots für den verantwortungsvollen Umgang mit den eigenen Daten. Durchschlagender Erfolg ist nicht zu erwarten: So lautet ein Ratschlag an die Jugendlichen, das eigene Zugangs-Passwort den Eltern mitzuteilen - was der Empfehlung gleichkommt, das eigene Tagebuch bei den Eltern zu hinterlegen. Eine weitere Bedrohung für die Privatsphäre geht von den Konzernen aus, die diese Dienste anbieten. Die meisten sind kostenlos, sie sollen über Werbung und Partnerschaften Geld bringen. So hat der Internet-Riese Yahoo eine ganze Reihe von Web2.0-Firmen gekauft, darunter das Bilderportal "Flickr" und den Bookmark-Dienst "Del.icio.us". "My Space" gehört mittlerweile zum Imperium des Medien-Moguls Rupert Murdoch. O'Reilly warnt: "Diese Firmen werden einen enormen Einfluss auf unser aller Leben haben - und sie können ihn zum Guten wie zum Schlechten nutzen." Der Identitätsdiebstahl im Internet ist mittlerweile zu einem ernsthaften Problem geworden. Kriminelle gehen mit Daten wie Namen und Kreditkartenummern auf Betrugstour. Sie verursachten laut amtlicher Statistik allein im Jahr 2004 Schäden in Höhe von sechs Milliarden Dollar - aktuelle Schätzungen gehen von bis zu 50 Milliarden Dollar Schaden pro Jahr aus. Aber nicht nur Betrüger beuten den Datenschatz im Netz aus, auch Geheimdienste zeigen Interesse. So berichtet das Wissenschaftsmagazin New Scientist, der US-Geheimdienst National Security Agency erforsche intensiv Techniken, mit deren Hilfe die Agenten soziale Netzwerke überwachen und systematisch auswerten können. Das Interesse kommt nicht von ungefähr: Web-2.0-Dienste erfreuen sich einer großen Beliebtheit. So verzeichnet das erst vor zwei Jahren gegründete Portal "My Space" schon fast 100 Millionen Nutzer, die sich über Musik- und andere Konsumvorlieben austauschen. Besonders bei Musikern ist die Plattform beliebt: Mittlerweile sollen sich dort 400 000 Bands tummeln, die ihre Arbeit auf der Plattform vorstellen."
  16. Brake, M.: ¬Das Semantische Web : Eine Vision in der Halbzeit (2005) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4764) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4764,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4764, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4764)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit der Veröffentlichung der ersten Website 1989 am CERN gab Timothy J. Berners-Lee den Startschuss für das WorldWideWeb, diesem ständig expandierenden Konvolut aus digitalisierten Daten, vernetzten Maschinen und Menschen. Mittlerweile nimmt das Netz für sich in Anspruch, das Weltwissen zu repräsentieren und hat in seiner Gesamtheit längst die klassische Vorstellung von einer Enzyklopädie abgelöst und übertroffen. Andererseits ist das Netz trotz geballter Wissensansammlung und Rechenpower immer noch dumm. Seit fast einer Dekade ist nun das "verständige" Internet in der Diskussion, die Semantic Web Days in München und die Semantics in Wien zogen eine Zwischenbilanz und zeigten ein mittlerweile weites Spektrum von Praxisanwendungen.
  17. Fensel, A.: Towards semantic APIs for research data services (2017) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4439) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4439,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4439)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die schnelle Entwicklung der Internet- und Web-Technologie verändert den Stand der Technik in der Kommunikation von Wissen oder Forschungsergebnissen. Insbesondere werden semantische Technologien, verknüpfte und offene Daten zu entscheidenden Faktoren für einen erfolgreichen und effizienten Forschungsfortschritt. Zuerst definiere ich den Research Data Service (RDS) und diskutiere typische aktuelle und mögliche zukünftige Nutzungsszenarien mit RDS. Darüber hinaus bespreche ich den Stand der Technik in den Bereichen semantische Dienstleistung und Datenanmerkung und API-Konstruktion sowie infrastrukturelle Lösungen, die für die RDS-Realisierung anwendbar sind. Zum Schluss werden noch innovative Methoden der Online-Verbreitung, Förderung und effizienten Kommunikation der Forschung diskutiert.
  18. Borst, T.; Löhden, A.; Neubert, J.; Pohl, A.: "Linked Open Data" im Fokus : Spannende Themen und Diskussionen bei der SWIB12 (2013) 0.02
    0.021520453 = product of:
      0.043040905 = sum of:
        0.043040905 = product of:
          0.08608181 = sum of:
            0.08608181 = weight(_text_:daten in 3352) [ClassicSimilarity], result of:
              0.08608181 = score(doc=3352,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.35275996 = fieldWeight in 3352, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3352)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "In den Keynotes betonte Emmanuelle Bermes (Centre Pompidou) die Wichtigkeit, nicht nur über Technologien, sondern auch mithilfe von Communities, Organisationen oder Standards Brücken im Sinne eines bibliothekarischen LOD-Ökosystems zu bauen; Jon Voss (LODLAM, Historypin) stellte die auf LOD im Kulturerbebereich fokussierte amerikanische Initiative »Linked Open Data in Libraries, Archives, and Museums« (LODLAM) vor. Kevin Ford (Library of Congress) berichtete den brandneuen Stand des BIBFRAME-Projekts, das Bibliotheken und Gedächtnisinstitutionen im »Web of Data« integrieren soll. Die Verfügbarkeit von Bibliografie- und Normdaten als LOD ist inzwischen Realität, nun kommen - so ein Ergebnis der diesjährigen SWIB - auch Institutions- und Nutzungsdaten sowie Forschungsdaten dazu. Die Anreicherung bibliothekarischer Daten hatten mehrere Vorträge zum Inhalt. Das Culturegraph-Projekt der Deutschen Nationalbibliothek unter Mitarbeit des hbz benennt dabei außer der physischen Übertragung und der Verlinkung von Daten als weitere Möglichkeit die Ergänzung des Suchindex. Ein Vorhaben der Florida State University, von GESIS und Biotea befasst sich damit, wissenschaftliche Artikel beziehungsweise ihre Meta-daten aus den Volltexten selbst heraus zu ergänzen (über die Generierung von RDF-Daten aus PDF-Dokumenten). Ein GESIS-Projekt nutzt zur Anreicherung Bibliografie-, Zeitschriften- und Konferenzplattformen.
    Metadaten verschiedener Quellen Die Dokumentation der Provenienz ist nicht nur für Medien wichtig, sondern - insbesondere wenn Metadaten verschiedener Quellen zusammengeführt werden - auch für die Metadaten selbst. Werden bibliothekarische Metadaten mit Daten aus Web2.0-Quellen angereichert (oder umgekehrt), so sollte mindestens zwischen der Herkunft aus Kulturerbeinstitutionen und Web2.0-Plattformen unterschieden werden. Im Provenance-Workshop wurden verschiedene Vokabulare zur Darstellung der Provenienz von Ressourcen und Metadaten diskutiert. Einen allgemein akzeptierten Ansatz für Linked Data scheint es bisher nicht zu geben - die verfügbaren Ansätze seien teils komplex, sodass auf Metadaten operierende Applikationen speziell auf sie ausgerichtet sein müssten, oder aber unterstützten nicht gut mehrfache Metaaussagen wie zum Beispiel verschachtelte Quellen. Daher empfehle sich eine fallweise pragmatische Vorgehensweise. Dass der Workshop zum Thema Provenance innerhalb weniger Tage ausgebucht war, weist ebenfalls auf die Aktualität des Themas hin. Um für die verschiedensprachigen Wikipedia-Artikel die Datenpflege zu erleichtern, sammelt Wikidata deren Fakten und stellt sie als Datenbasis bereit. Die sogenannten Claims von Wikidata enthalten neben den - über die lokalen Wikipedias divergierenden - Aussagen auch ihre Quellen und Zeitkontexte. Auf die Darstellung der Rechte und Lizenzen der veröffentlichten Bestände an Linked Data wurde mehrfach eingegangen, zum Beispiel in den Vorträgen der Universitätsbibliothek von Amsterdam und der OEG-UPM. Neben den bibliotheksspezifischen Formaten und Schnittstellen trägt auch dies zur Abschottung beziehungsweise Öffnung von Bibliotheksdaten bei. Im Kontext der »Europeana« wird an der Darstellung von Ressourcen-Lizenzen gearbeitet, mithilfe von URLs werden Ressource- und Lizenzinformationen dynamisch zusammen angezeigt."
  19. Semantic web & linked data : Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis (2010) 0.02
    0.021520453 = product of:
      0.043040905 = sum of:
        0.043040905 = product of:
          0.08608181 = sum of:
            0.08608181 = weight(_text_:daten in 1516) [ClassicSimilarity], result of:
              0.08608181 = score(doc=1516,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.35275996 = fieldWeight in 1516, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1516)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Informationswissenschaft und Informatik nähern sich auf vielen Gebieten bei ihren Projekten und in ihren Zielsetzungen immer stärker an. Ganz besonders deutlich wird dies vor dem Hintergrund von Semantic Web und Linked Data. Die Textanalyse und Fixierung der Essenz einer Publikation in Form ihrer belastbaren Aussagen und zugrunde liegender Daten sowie deren Speicherung und Aufbereitung für die Nutzung gehören zu den professionellen Aktivitäten der in der DGI organisierten Informationsfachleute. Das Semantic Web versprocht, bei entsprechender intellektueller Vorarbeit, diese Tätigkeiten künftig zu erleichtern. Der Tgaungsband macht an vielen Beispielen anschaulich klar, wie die in Informationswissenschaft und -praxis über Jahrzehnte erarbeiteten Grundlagen und Werkzeuge jetzt für den Aufbau der zukünftigen Informationsinfrastrukturen eingesetzt werden können. Er vereint die Textfassungen der Beiträge, die durch das Programmkomitee für die 1. DGI-Konferenz angenommen worden sind, dazu gehören u.a. wissensbasierte Anwendungen in der Wirtschaft, Aufbau von Ontologien mittels Thesauri, Mehrsprachigkeit und Open Data.
    Content
    Enthält die Beiträge: ONTOLOGIEN UND WISSENSREPRÄSENTATIONEN: DIE VERLINKUNG ZWISCHEN INFORMATIONSSUCHENDEN UND INFORMATIONSRESSOURCEN Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN / Fabio Ricci und Rene Schneider - Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage / Sonja Öttl, Daniel Streiff, Niklaus Stettler und Martin Studer - Anforderungen an die Wissensrepräsentation im Social Semantic Web / Katrin Weller SEMANTIC WEB & LINKED DATA: WISSENSBASIERTE ANWENDUNGEN IN DER WIRTSCHAFT Semantic Web & Linked Data für professionelle Informationsangebote. Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen / Ruth Göbel - Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed / Michael R. Alvers Produktion und Distribution für multimedialen Content in Form von Linked Data am Beispiel von PAUX / Michael Dreusicke DAS RÜCKRAT DES WEB DER DATEN: ONTOLOGIEN IN BIBLIOTHEKEN Linked Data aus und für Bibliotheken: Rückgratstärkung im Semantic Web / Reinhard Altenhöner, Jan Hannemann und Jürgen Kett - MODS2FRBRoo: Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen im Bereich des kulturellen Erbes / Hans-Georg Becker - Suchmöglichkeiten für Vokabulare im Semantic Web / Friederike Borchert
    OPEN DATA - OPENS PROBLEMS? Challenges and Opportunities in Social Science Research Data Management / Stefan Kramer - Aktivitäten von GESIS im Kontext von Open Data und Zugang zu sozialwissenschaftlichen Forschungsergebnissen / Anja Wilde, Agnieszka Wenninger, Oliver Hopt, Philipp Schaer und Benjamin Zapilko NUTZER UND NUTZUNG IM ZEITALTER VON SEMANTIC WEB & LINKED DATA Die Erfassung, Nutzung und Weiterverwendung von statistischen Informationen - Erfahrungsbericht / Doris Stärk - Einsatz semantischer Technologien zur Entwicklung eines Lerntrajektoriengenerators in frei zugänglichen, nicht personalisierenden Lernplattformen / Richard Huber, Adrian Paschke, Georges Awad und Kirsten Hantelmann OPEN DATA: KONZEPTE - NUTZUNG - ZUKUNFT Zur Konzeption und Implementierung einer Infrastruktur für freie bibliographische Daten / Adrian Pohl und Felix Ostrowski - Lösung zum multilingualen Wissensmanagement semantischer Informationen / Lars Ludwig - Linked Open Projects: Nachnutzung von Projektergebnissen als Linked Data / Kai Eckert AUSBLICK INFORMATIONSKOMPETENZ GMMIK ['gi-mik] - Ein Modell der Informationskompetenz / Aleksander Knauerhase WORKSHOP Wissensdiagnostik als Instrument für Lernempfehlungen am Beispiel der Facharztprüfung / Werner Povoden, Sabine Povoden und Roland Streule
  20. Broughton, V.: Automatic metadata generation : Digital resource description without human intervention (2007) 0.02
    0.020839168 = product of:
      0.041678336 = sum of:
        0.041678336 = product of:
          0.08335667 = sum of:
            0.08335667 = weight(_text_:22 in 6048) [ClassicSimilarity], result of:
              0.08335667 = score(doc=6048,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46428138 = fieldWeight in 6048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6048)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.2007 15:41:14

Years

Languages

  • e 32
  • d 28

Types

  • a 35
  • el 11
  • m 11
  • s 5
  • x 4
  • n 1
  • r 1
  • More… Less…