Search (17 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Semantic Web"
  • × year_i:[2000 TO 2010}
  1. Auer, S.; Lehmann, J.; Bizer, C.: Semantische Mashups auf Basis Vernetzter Daten (2009) 0.06
    0.055007108 = product of:
      0.110014215 = sum of:
        0.110014215 = product of:
          0.22002843 = sum of:
            0.22002843 = weight(_text_:daten in 4868) [ClassicSimilarity], result of:
              0.22002843 = score(doc=4868,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.9016681 = fieldWeight in 4868, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4868)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Semantische Mashups sind Anwendungen, die vernetzte Daten aus mehreren Web-Datenquellen mittels standardisierter Datenformate und Zugriffsmechanismen nutzen. Der Artikel gibt einen Überblick über die Idee und Motivation der Vernetzung von Daten. Es werden verschiedene Architekturen und Ansätze zur Generierung von RDF-Daten aus bestehenden Web 2.0-Datenquellen, zur Vernetzung der extrahierten Daten sowie zur Veröffentlichung der Daten im Web anhand konkreter Beispiele diskutiert. Hierbei wird insbesondere auf Datenquellen, die aus sozialen Interaktionen hervorgegangen sind eingegangen. Anschließend wird ein Überblick über verschiedene, im Web frei zugängliche semantische Mashups gegeben und auf leichtgewichtige Inferenzansätze eingegangen, mittels derer sich die Funktionalität von semantischen Mashups weiter verbessern lässt.
  2. Pellegrini, T.: Was ist das Semantic Web? (2006) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 1466) [ClassicSimilarity], result of:
              0.1555836 = score(doc=1466,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 1466, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1466)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die historischen Wurzeln des Semantic Web reichen zurück in die Artificial Intelligence Forschung der 1960er und -70er Jahre. Konzepte aus der Light Weight Artificial Intelligence wie Frames, Microworlds und Heuristic Programming stellten erste Versuche der maschinenverarbeitbaren Wissensrepräsentation dar. Hier ging es nicht darum, intelligentes Verhalten zu simulieren, sondern Methoden zu entwickeln, die den Menschen in seiner Entscheidungsfindung unterstützen. Durch die inhaltliche Beschreibung (semantische Anreicherung) von Datenbeständen mit maschinenlesbaren Metadaten und Scripts wurden Maschinen in die Lage versetzt autonom Daten zu verarbeiten. Der Computer sollte in der Lage sein, den Kontext, in dem Daten erzeugt und abgelegt werden, zu "verstehen" und darauf basierend für den Nutzer relevante Daten zu selektieren, zu verarbeiten und auszugeben.
  3. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.04
    0.03646577 = product of:
      0.07293154 = sum of:
        0.07293154 = sum of:
          0.05556557 = weight(_text_:daten in 1847) [ClassicSimilarity], result of:
            0.05556557 = score(doc=1847,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22770557 = fieldWeight in 1847, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1847)
          0.017365975 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
            0.017365975 = score(doc=1847,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 1847, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1847)
      0.5 = coord(1/2)
    
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
  4. Nagenborg, M..: Privacy im Social Semantic Web (2009) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 4876) [ClassicSimilarity], result of:
              0.12703346 = score(doc=4876,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 4876, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4876)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Schwerpunkt dieses Beitrages liegt auf dem Design von Infrastrukturen, welche es ermöglichen sollen, private Daten kontrolliert preiszugeben und auszutauschen. Zunächst wird daran erinnert, dass rechtliche und technische Maßnahmen zum Datenschutz stets auch dazu dienen, den Austausch von Daten zu ermöglichen. Die grundlegende Herausforderung besteht darin, der sozialen und politischen Bedeutung des Privaten Rechnung zu tragen. Privatheit wird aus der Perspektive der Informationsethik dabei als ein normatives, handlungsleitendes Konzept verstanden. Als Maßstab für die Gestaltung der entsprechenden Infrastrukturen wird auf Helen Nissenbaums Konzept der "privacy as contextual integrity" zurückgegriffen, um u. a. die Ansätze der "end-to-end information accountability" und des "Privacy Identity Management for Europe"- Projektes zu diskutieren.
  5. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 1761) [ClassicSimilarity], result of:
              0.10888583 = score(doc=1761,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 1761, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1761)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
  6. Stenzhorn, H.; Samwald, M.: ¬Das Semantic Web als Werkzeug in der biomedizinischen Forschung (2009) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 4878) [ClassicSimilarity], result of:
              0.10888583 = score(doc=4878,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 4878, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4878)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der biomedizinischen Forschung werden besonders in den letzten Jahren vermehrt enorme Mengen an neuen Daten produziert und diese in Folge verstärkt per Internet veröffentlicht. Viele Experten sehen in dieser Vorgehensweise die Chance zur Entdeckung bisher unbekannter biomedizinischer Erkenntnisse. Um dies jedoch zu ermöglichen, müssen neue Wege gefunden werden, die gewonnenen Daten effizient zu verarbeiten und zu verwalten. In dem vorliegenden Artikel werden die Möglichkeiten betrachtet, die das Semantic Web hierzu anbieten kann. Hierfür werden die relevanten Technologien des Semantic Web im speziellen Kontext der biomedizinischen Forschung betrachtet. Ein Fokus liegt auf der Anwendung von Ontologien in der Biomedizin: Es wird auf deren Vorteile eingegangen, aber auch auf möglichen Probleme, die deren Einsatz in einem erweiterten wissenschaftlichen Umfeld mit sich bringen können.
  7. Kleinz, T.: Beute im Netz : Das Web 2.0 hilft, Freunde mit gleichen Interessen zu finden - doch auch Geheimdienste und Betrüger lesen mit (2006) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 6001) [ClassicSimilarity], result of:
              0.089826226 = score(doc=6001,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 6001, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6001)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Knapp zwei Jahre ist es her, seitdem der USVerleger Tim O'Reilly das "Web 2.0" ausgerufen hat - das soziale Internet. Seitdem hat sich das Angebot im weltumspannenden Datennetz gewandelt. Nicht Redaktionen oder Firmen gestalten zunehmend Angebote, sondern die Nutzer selbst. Sie schreiben in Weblogs über ihren Alltag, tragen ihre Freunde in Kontaktbörsen ein, stellen Fotos, Videos und Musik ins Netz. Doch nicht nur Freunde nutzen die Vorteile des neuen Netzes - auch Betrüger, Geheimdienste und Firmen sind dabei. "Die Weisheit der Massen kann viel zu leicht in den Wahnsinn der Massen umschlagen", warnt Web-2.0-Vordenker O'Reilly. Er spricht von der "dunklen Seite" des Web 2.0. "Kollektive Intelligenz erfordert das Speichern gewaltiger Datenmengen. Diese können genutzt werden, um innovative Dienste zur Verfügung zu stellen. Die gleichen Daten können aber auch unsere Privatsphäre bedrohen." So tobt in einer Mailingliste der Online-Enzyklopädie Wikipedia eine Debatte über ein Auswertungswerkzeug. Eine Webseite trug zahlreiche Details über alle WikipediaNutzer zusammen. Sie zeigte, wer wie lange und in welchen Feldern der Wikipedia tätig war. Übersichtliche Wochengrafiken veranschaulichten, zu welchen Tageszeiten welche Nutzer gerne aktiv sind. Einem ehemaligen Mitwirkenden gefällt das nicht. Uli Fuchs beklagte, solche Auswertungen verstießen gegen sein Recht auf informationelle Selbstbestimmung und wahrscheinlich gegen mehrere Gesetze. Die Wikipedia-Verantwortlichen knickten ein: Bis zu einer rechtlichen Klärung schalteten sie das Auswertungswerkzeug ab. Fuchs spricht einen brisanten Punkt an. Penibel verzeichnet die Online-Enzyklopädie jede kleinste Änderung, die ein User an den Artikeln vornimmt. Die Daten sind bis auf den letzten Kommafehler auch nach Jahren noch einsehbar. In den falschen Händen können solche Informationen brisant sein. Sind etwa Arbeitnehmer krank gemeldet, geraten sie vielleicht in Erklärungsnöte, wenn sie zur gleichen Zeit an Wikipedia-Artikeln arbeiten. Ein Großteil der Nutzer versteckt sich daher hinter Pseudonymen.
    Auch "My Space" verdeutlicht die Schattenseite des Web 2.0: In mehreren hundert Fällen ermittelt die US-Bundespolizei FBI wegen sexueller Belästigungen von Kindern und Jugendlichen. Die Plattform hat reagiert und wirbt seit dieser Woche in Fernsehspots für den verantwortungsvollen Umgang mit den eigenen Daten. Durchschlagender Erfolg ist nicht zu erwarten: So lautet ein Ratschlag an die Jugendlichen, das eigene Zugangs-Passwort den Eltern mitzuteilen - was der Empfehlung gleichkommt, das eigene Tagebuch bei den Eltern zu hinterlegen. Eine weitere Bedrohung für die Privatsphäre geht von den Konzernen aus, die diese Dienste anbieten. Die meisten sind kostenlos, sie sollen über Werbung und Partnerschaften Geld bringen. So hat der Internet-Riese Yahoo eine ganze Reihe von Web2.0-Firmen gekauft, darunter das Bilderportal "Flickr" und den Bookmark-Dienst "Del.icio.us". "My Space" gehört mittlerweile zum Imperium des Medien-Moguls Rupert Murdoch. O'Reilly warnt: "Diese Firmen werden einen enormen Einfluss auf unser aller Leben haben - und sie können ihn zum Guten wie zum Schlechten nutzen." Der Identitätsdiebstahl im Internet ist mittlerweile zu einem ernsthaften Problem geworden. Kriminelle gehen mit Daten wie Namen und Kreditkartenummern auf Betrugstour. Sie verursachten laut amtlicher Statistik allein im Jahr 2004 Schäden in Höhe von sechs Milliarden Dollar - aktuelle Schätzungen gehen von bis zu 50 Milliarden Dollar Schaden pro Jahr aus. Aber nicht nur Betrüger beuten den Datenschatz im Netz aus, auch Geheimdienste zeigen Interesse. So berichtet das Wissenschaftsmagazin New Scientist, der US-Geheimdienst National Security Agency erforsche intensiv Techniken, mit deren Hilfe die Agenten soziale Netzwerke überwachen und systematisch auswerten können. Das Interesse kommt nicht von ungefähr: Web-2.0-Dienste erfreuen sich einer großen Beliebtheit. So verzeichnet das erst vor zwei Jahren gegründete Portal "My Space" schon fast 100 Millionen Nutzer, die sich über Musik- und andere Konsumvorlieben austauschen. Besonders bei Musikern ist die Plattform beliebt: Mittlerweile sollen sich dort 400 000 Bands tummeln, die ihre Arbeit auf der Plattform vorstellen."
  8. Brake, M.: ¬Das Semantische Web : Eine Vision in der Halbzeit (2005) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4764) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4764,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4764, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4764)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit der Veröffentlichung der ersten Website 1989 am CERN gab Timothy J. Berners-Lee den Startschuss für das WorldWideWeb, diesem ständig expandierenden Konvolut aus digitalisierten Daten, vernetzten Maschinen und Menschen. Mittlerweile nimmt das Netz für sich in Anspruch, das Weltwissen zu repräsentieren und hat in seiner Gesamtheit längst die klassische Vorstellung von einer Enzyklopädie abgelöst und übertroffen. Andererseits ist das Netz trotz geballter Wissensansammlung und Rechenpower immer noch dumm. Seit fast einer Dekade ist nun das "verständige" Internet in der Diskussion, die Semantic Web Days in München und die Semantics in Wien zogen eine Zwischenbilanz und zeigten ein mittlerweile weites Spektrum von Praxisanwendungen.
  9. Yahoo kündigt semantische Suche an (2008) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 1840) [ClassicSimilarity], result of:
              0.076993905 = score(doc=1840,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1840)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Yahoo hat angekündigt einige der wesentlichen Standards des semantischen Webs in seine Suchmaschine zu integrieren. Das Unternehmen will einige semantische Web-Indexate in seine Suchtechnik einbauen. Anstatt eine lange Liste von Links auszuspucken, könnte eine semantische Suchmaschine verstehen, welche Art von Objekt oder Person gesucht wird und zusätzliche Information anbieten. Die neue Technologie könnte etablierte Angebote unter Druck setzen, erwarten Experten. Google setzt nach wie vor auf konventionelle Technologie. Der Schachzug des Unternehmens könnte der Verbreitung der Technologie erheblichen Auftrieb geben. Trotz des bemerkenswerten Fortschritts des semantischen Webs der vergangenen Jahre habe der durchschnittliche User davon noch nichts bemerkt, meint Amit Kumar, Product Management Director bei Yahoo. Yahoo habe nun gemerkt, dass sich das langsam ändere. Wie in den Anfangstagen des Web würden viele Menschen Daten mit Kennzeichnungen und Indextermen versehen, die semantische Suchmaschinen brauchen, um das Web zu durchsuchen. Yahoo hat erkannt, dass es nun genug Informationen als Grundlage für eine semantische Websuche gibt."
  10. Schäfer, D.: Konzeption, prototypische Implementierung und Evaluierung eines RDF-basierten Bibliothekskatalogs für Online-Dissertationen (2008) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 2293) [ClassicSimilarity], result of:
              0.076993905 = score(doc=2293,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 2293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2293)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In dieser Diplomarbeit geht es um die semantische Suche innerhalb bibliothekarischer Metadaten. Die Umsetzung dieses Vorhabens wird ermöglichst durch die Entwicklung in dem Bereich des Semantischen Webs, die durch das W3C Semantic Web Activity vorangetrieben wird. Diese Arbeit basiert auf den Empfehlungen und Arbeitsentwürfen unterschiedlicher Technologien dieser Gruppe, deren Kombination schließlich ein Semantisches Web ermöglicht. Da die Thematik des Semantischen Webs schwer zu greifen ist, werden die Komponenten, die in dieser Arbeit eine Rolle spielen, ausführlich erkäutert. Im Anschluss daran werden die Anforderungen an eine semantische Suche innerhalb bibliothekarischer Metadaten dargestellt, um dann ein Konzept zur Lösung zu erläutern. Die Zielsetzung dieser Arbeit ist die Umsetzung der Konzepte des Semantischen Webs innerhalb einer prototypischen Implementierung mit einem umfangreichen Datensatz. Hier wurden die Metadaten der elektronischen Dissertationen innerhalb der Deutschen Nationalbibliothek zusammen mit Daten eines Klassifikationssystems verwendet.
  11. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.01
    0.0128323175 = product of:
      0.025664635 = sum of:
        0.025664635 = product of:
          0.05132927 = sum of:
            0.05132927 = weight(_text_:daten in 3359) [ClassicSimilarity], result of:
              0.05132927 = score(doc=3359,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.21034539 = fieldWeight in 3359, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3359)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  12. Faaborg, A.; Lagoze, C.: Semantic browsing (2003) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 1026) [ClassicSimilarity], result of:
              0.048624728 = score(doc=1026,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 1026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1026)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
  13. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.048624728 = score(doc=4184,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2011 10:38:28
  14. Blumauer, A.; Pellegrini, T.: Semantic Web Revisited : Eine kurze Einführung in das Social Semantic Web (2009) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 4855) [ClassicSimilarity], result of:
              0.048624728 = score(doc=4855,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 4855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4855)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    S.3-22
  15. Web 2.0-Pionier ortet kollektive Intelligenz im Internet : Technologieschübe kommen über mobile Endgeräte und Spracherkennung (2007) 0.01
    0.009624238 = product of:
      0.019248476 = sum of:
        0.019248476 = product of:
          0.038496953 = sum of:
            0.038496953 = weight(_text_:daten in 670) [ClassicSimilarity], result of:
              0.038496953 = score(doc=670,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.15775904 = fieldWeight in 670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=670)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die Vision von der künstlichen Intelligenz wird Wirklichkeit, sagt Computerbuchverleger und Web 2.0-Pionier Tim O'Reilly. Das Leben mit dem Internet sei viel weiter als manche ahnungslose Nutzer meinten. Und es gebe keinen Weg zurück. O'Reilly ist sich allerdings nicht sicher, ob der nächste große Technologie-Schub mit dem WorldWideWeb verbunden ist. " Wenn wir über unseren Umgang mit Computern reden, verbinden wir das immer noch damit, vor einem Bildschirm zu sitzen und auf einer Tastatur zu tippen. Aber Computer werden immer mehr in den Hintergrund gedrängt. Die offensichtliche Veränderung ist zunächst - was ja viele Menschen auch schon beschrieben haben-, dass auch mobile Endgeräte oder Mobiltelefone als Plattform dienen. Damit ist auch verbunden, dass Spracherkennung immer besser wird. Oder dass Fotoapparate mittlerweile mit GPS ausgestattet sind. Wenn Sie damit ein Foto machen, ist der Ort automatisch Teil des Fotos und damit Teil der Information, die Sie zum Beispiel auf eine Web-2.0-Anwendung wie flickr stellen. Und plötzlich lernt das globale Gehirn etwas, was Sie gar nicht beabsichtigt haben", betont O'Reilly. Microsoft habe eine Software vorgestellt, die Photosynth heißt. Mit ihr könnten aus aneinander gereihten Digitalfotos 3-D Modelle entworfen werden. Man müsse die Fotos nur mit "Tags" versehen, also markieren, und jemand anderes nutzt das und führt alles zu einem 3-D Modell zusammen. "Wir bewegen uns also in Richtung künstlicher Intelligenz. Allerdings ist immer noch ein Mensch dahinter, der dem Programm sagt, was es tun soll. Aber das Beispiel zeigt, was mit der Nutzung kollektiver Intelligenz gemeint ist. Wir geben immer mehr Daten in das globale Netzwerk ein, und Menschen schreiben Programme, die neue Verbindungen erstellen. Es ist, als würden die Synapsen des kollektiven Gehirns wachsen. Ich glaube, wir dürfen Überraschungen erwarten", meint O'Reilly.
  16. Semantic Web : Wege zur vernetzten Wissensgesellschaft (2006) 0.01
    0.008020199 = product of:
      0.016040398 = sum of:
        0.016040398 = product of:
          0.032080796 = sum of:
            0.032080796 = weight(_text_:daten in 117) [ClassicSimilarity], result of:
              0.032080796 = score(doc=117,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.13146587 = fieldWeight in 117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=117)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Im vierten Teil des Bandes stehen die technischen und infrastrukturellen Aspekte im Mittelpunkt des Interesses, die für den Aufbau und Betrieb semantischer Systeme von Relevanz sind. Wolfgang Kienreich und Markus Strohmaier identifizieren die Wissensmodellierung als Basis für den Einsatz semantischer Technologien für das Knowledge Engineering und stellen zwei grundlegende Modellierungsparadigmen vor. Andreas Koller argumentiert, dass die strukturierte Ablage von Content in Content Management Systemen den Lift-Off des Semantic Web stützen wird und zeigt eine Reihe von einfachen Maßnahmen auf, wie CMS Semantic Web tauglich gemacht werden können. Alois Reitbauer gibt einen leicht verständlichen Überblick über technische Fragestellungen der IT-Integration und demonstriert anhand von Beispielen die Vorteile semantischer Technologien gegenüber konventionellen Methoden. Gerald Reif veranschaulicht die Einsatzgebiete und Leistungsfähigkeit der semantischen Annotation und stellt Tools vor, die den Nutzer bei der Dokumentenverschlagwortung unterstützen. Robert Baumgartner stellt die Funktionsweise von Wrappertechnologien zur Extraktion von Daten aus unstrukturierten Dokumenten vor und demonstriert den Nutzen am Beispiel eines B2B-Szenarios. Michael Granitzer bietet einen Überblick über statistische Verfahren der Textanalyse und zeigt, welchen Beitrag diese zur Wartung von Ontologien leisten können.
  17. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.01
    0.008020199 = product of:
      0.016040398 = sum of:
        0.016040398 = product of:
          0.032080796 = sum of:
            0.032080796 = weight(_text_:daten in 641) [ClassicSimilarity], result of:
              0.032080796 = score(doc=641,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.13146587 = fieldWeight in 641, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=641)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.