Search (63 results, page 1 of 4)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Semantic Web"
  1. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.02
    0.01569825 = product of:
      0.039245624 = sum of:
        0.02620616 = weight(_text_:den in 4331) [ClassicSimilarity], result of:
          0.02620616 = score(doc=4331,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 4331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=4331)
        0.013039465 = product of:
          0.039118394 = sum of:
            0.039118394 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
              0.039118394 = score(doc=4331,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.30952093 = fieldWeight in 4331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4331)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
  2. Firnkes, M.: Schöne neue Welt : der Content der Zukunft wird von Algorithmen bestimmt (2015) 0.02
    0.015030173 = product of:
      0.03757543 = sum of:
        0.02779583 = weight(_text_:den in 2118) [ClassicSimilarity], result of:
          0.02779583 = score(doc=2118,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 2118, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2118)
        0.009779599 = product of:
          0.029338794 = sum of:
            0.029338794 = weight(_text_:22 in 2118) [ClassicSimilarity], result of:
              0.029338794 = score(doc=2118,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 2118, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2118)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Während das Internet vor noch nicht allzu langer Zeit hauptsächlich ein weiteres Informationsmedium darstellte, so explodieren die technischen Möglichkeiten derzeit förmlich. Diese stärken nicht nur den gegenseitigen Austausch der Nutzer. Sie alle vermessen unsere täglichen Gewohnheiten - auf sehr vielfältige Art und Weise. Die Mechanismen, die das gekaufte Web ausmachen, werden hierdurch komplexer. In den meisten neuen Technologien und Anwendungen verbergen sich Wege, die Verbraucherverführung zu perfektionieren. Nicht wenige davon dürften zudem für die Politik und andere Interessensverbände von Bedeutung sein, als alternativer Kanal, um Wählergruppen und Unterstützer zu mobilisieren. Das nachfolgende Kapitel nennt die wichtigsten Trends der nächsten Jahre, mitsamt ihren möglichen manipulativen Auswirkungen. Nur wenn wir beobachten, von wem die Zukunftstechniken wie genutzt werden, können wir kommerziellen Auswüchsen vorbeugen.
    Date
    5. 7.2015 22:02:31
  3. Siwecka, D.: Knowledge organization systems used in European national libraries towards interoperability of the semantic Web (2018) 0.01
    0.012020189 = product of:
      0.030050473 = sum of:
        0.016892646 = product of:
          0.050677933 = sum of:
            0.050677933 = weight(_text_:f in 4815) [ClassicSimilarity], result of:
              0.050677933 = score(doc=4815,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.35229704 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
          0.33333334 = coord(1/3)
        0.013157828 = product of:
          0.03947348 = sum of:
            0.03947348 = weight(_text_:29 in 4815) [ClassicSimilarity], result of:
              0.03947348 = score(doc=4815,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    18. 1.2019 18:46:29
    Source
    Challenges and opportunities for knowledge organization in the digital age: proceedings of the Fifteenth International ISKO Conference, 9-11 July 2018, Porto, Portugal / organized by: International Society for Knowledge Organization (ISKO), ISKO Spain and Portugal Chapter, University of Porto - Faculty of Arts and Humanities, Research Centre in Communication, Information and Digital Culture (CIC.digital) - Porto. Eds.: F. Ribeiro u. M.E. Cerveira
  4. Fensel, A.: Towards semantic APIs for research data services (2017) 0.01
    0.0091721555 = product of:
      0.04586078 = sum of:
        0.04586078 = weight(_text_:den in 4439) [ClassicSimilarity], result of:
          0.04586078 = score(doc=4439,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.4433424 = fieldWeight in 4439, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
      0.2 = coord(1/5)
    
    Abstract
    Die schnelle Entwicklung der Internet- und Web-Technologie verändert den Stand der Technik in der Kommunikation von Wissen oder Forschungsergebnissen. Insbesondere werden semantische Technologien, verknüpfte und offene Daten zu entscheidenden Faktoren für einen erfolgreichen und effizienten Forschungsfortschritt. Zuerst definiere ich den Research Data Service (RDS) und diskutiere typische aktuelle und mögliche zukünftige Nutzungsszenarien mit RDS. Darüber hinaus bespreche ich den Stand der Technik in den Bereichen semantische Dienstleistung und Datenanmerkung und API-Konstruktion sowie infrastrukturelle Lösungen, die für die RDS-Realisierung anwendbar sind. Zum Schluss werden noch innovative Methoden der Online-Verbreitung, Förderung und effizienten Kommunikation der Forschung diskutiert.
  5. Corporate Semantic Web : wie semantische Anwendungen in Unternehmen Nutzen stiften (2015) 0.01
    0.007872798 = product of:
      0.019681994 = sum of:
        0.01310308 = weight(_text_:den in 2246) [ClassicSimilarity], result of:
          0.01310308 = score(doc=2246,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.12666926 = fieldWeight in 2246, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
        0.006578914 = product of:
          0.01973674 = sum of:
            0.01973674 = weight(_text_:29 in 2246) [ClassicSimilarity], result of:
              0.01973674 = score(doc=2246,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15546128 = fieldWeight in 2246, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2246)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Beim Corporate Semantic Web betrachtet man Semantic Web-Anwendungen, die innerhalb eines Unternehmens oder einer Organisation - kommerziell und nicht kommerziell - eingesetzt werden, von Mitarbeitern, von Kunden oder Partnern. Die Autoren erläutern prägende Erfahrungen in der Entwicklung von Semantic Web-Anwendungen. Sie berichten über Software-Architektur, Methodik, Technologieauswahl, Linked Open Data Sets, Lizenzfragen etc. Anwendungen aus den Branchen Banken, Versicherungen, Telekommunikation, Medien, Energie, Maschinenbau, Logistik, Touristik, Spielwaren, Bibliothekswesen und Kultur werden vorgestellt. Der Leser erhält so einen umfassenden Überblick über die Semantic Web-Einsatzbereiche sowie konkrete Umsetzungshinweise für eigene Vorhaben.
    Date
    29. 9.2015 19:11:44
  6. Hollink, L.; Assem, M. van: Estimating the relevance of search results in the Culture-Web : a study of semantic distance measures (2010) 0.01
    0.007859188 = product of:
      0.039295938 = sum of:
        0.039295938 = product of:
          0.058943905 = sum of:
            0.029605111 = weight(_text_:29 in 4649) [ClassicSimilarity], result of:
              0.029605111 = score(doc=4649,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
            0.029338794 = weight(_text_:22 in 4649) [ClassicSimilarity], result of:
              0.029338794 = score(doc=4649,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.6666667 = coord(2/3)
      0.2 = coord(1/5)
    
    Date
    29. 7.2011 14:44:56
    26.12.2011 13:40:22
  7. Hooland, S. van; Verborgh, R.; Wilde, M. De; Hercher, J.; Mannens, E.; Wa, R.Van de: Evaluating the success of vocabulary reconciliation for cultural heritage collections (2013) 0.01
    0.007859188 = product of:
      0.039295938 = sum of:
        0.039295938 = product of:
          0.058943905 = sum of:
            0.029605111 = weight(_text_:29 in 662) [ClassicSimilarity], result of:
              0.029605111 = score(doc=662,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 662, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=662)
            0.029338794 = weight(_text_:22 in 662) [ClassicSimilarity], result of:
              0.029338794 = score(doc=662,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 662, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=662)
          0.6666667 = coord(2/3)
      0.2 = coord(1/5)
    
    Date
    22. 3.2013 19:29:20
  8. Monireh, E.; Sarker, M.K.; Bianchi, F.; Hitzler, P.; Doran, D.; Xie, N.: Reasoning over RDF knowledge bases using deep learning (2018) 0.01
    0.007483028 = product of:
      0.01870757 = sum of:
        0.010557904 = product of:
          0.03167371 = sum of:
            0.03167371 = weight(_text_:f in 4553) [ClassicSimilarity], result of:
              0.03167371 = score(doc=4553,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.22018565 = fieldWeight in 4553, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4553)
          0.33333334 = coord(1/3)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 4553) [ClassicSimilarity], result of:
              0.024448996 = score(doc=4553,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 4553, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4553)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    16.11.2018 14:22:01
  9. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.01
    0.007324844 = product of:
      0.03662422 = sum of:
        0.03662422 = weight(_text_:den in 3337) [ClassicSimilarity], result of:
          0.03662422 = score(doc=3337,freq=10.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.35405132 = fieldWeight in 3337, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.2 = coord(1/5)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
  10. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.01
    0.006485694 = product of:
      0.03242847 = sum of:
        0.03242847 = weight(_text_:den in 345) [ClassicSimilarity], result of:
          0.03242847 = score(doc=345,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31349042 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
      0.2 = coord(1/5)
    
    Abstract
    In diesem Kapitel wird ein Überblick über bestehende semantische Suchmaschinen gegeben. Insgesamt werden 95 solcher Suchdienste identifiziert und im Rahmen einer Inhaltsanalyse verglichen. Es kann festgestellt werden, dass die Semantische Suche sich wesentlich von den im Rahmen des Semantic Web propagierten Technologien unterscheidet und Semantik in den betrachteten Suchmaschinen weiter zu fassen ist. Die betrachteten Suchmaschinen werden in ein Stufenmodell, welches nach dem Grad der Semantik unterscheidet, eingeordnet. Das Kapitel schließt mit 8 Thesen zum aktuellen Stand der semantischen Suche.
  11. Borst, T.; Löhden, A.; Neubert, J.; Pohl, A.: "Linked Open Data" im Fokus : Spannende Themen und Diskussionen bei der SWIB12 (2013) 0.01
    0.0058963853 = product of:
      0.029481927 = sum of:
        0.029481927 = weight(_text_:den in 3352) [ClassicSimilarity], result of:
          0.029481927 = score(doc=3352,freq=18.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2850058 = fieldWeight in 3352, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3352)
      0.2 = coord(1/5)
    
    Content
    "In den Keynotes betonte Emmanuelle Bermes (Centre Pompidou) die Wichtigkeit, nicht nur über Technologien, sondern auch mithilfe von Communities, Organisationen oder Standards Brücken im Sinne eines bibliothekarischen LOD-Ökosystems zu bauen; Jon Voss (LODLAM, Historypin) stellte die auf LOD im Kulturerbebereich fokussierte amerikanische Initiative »Linked Open Data in Libraries, Archives, and Museums« (LODLAM) vor. Kevin Ford (Library of Congress) berichtete den brandneuen Stand des BIBFRAME-Projekts, das Bibliotheken und Gedächtnisinstitutionen im »Web of Data« integrieren soll. Die Verfügbarkeit von Bibliografie- und Normdaten als LOD ist inzwischen Realität, nun kommen - so ein Ergebnis der diesjährigen SWIB - auch Institutions- und Nutzungsdaten sowie Forschungsdaten dazu. Die Anreicherung bibliothekarischer Daten hatten mehrere Vorträge zum Inhalt. Das Culturegraph-Projekt der Deutschen Nationalbibliothek unter Mitarbeit des hbz benennt dabei außer der physischen Übertragung und der Verlinkung von Daten als weitere Möglichkeit die Ergänzung des Suchindex. Ein Vorhaben der Florida State University, von GESIS und Biotea befasst sich damit, wissenschaftliche Artikel beziehungsweise ihre Meta-daten aus den Volltexten selbst heraus zu ergänzen (über die Generierung von RDF-Daten aus PDF-Dokumenten). Ein GESIS-Projekt nutzt zur Anreicherung Bibliografie-, Zeitschriften- und Konferenzplattformen.
    Inzwischen geht es nicht mehr nur um die Veröffentlichung von Linked Data, sondern es werden auch erweiterte Services für BibliotheksnutzerInnen vorgestellt. In der Osloer Deichmanske Bibliothek werden Buchrezensionen strukturiert auffindbar gemacht und den Büchern zugeordnet. An den Regalen bietet, vermittelt durch in den Medien enthaltene RFID-Tags, ein Monitor Medieninformationen aus Bibliotheks- und externen Quellen. Beim LOD-Dienst der Französischen Nationalbibliothek können Nutzerinnen nun auch explizit nach Werken, Editionen und einzelnen Exemplaren recherchieren oder nach Personen, die mit einer bestimmten Rolle an einer Ausgabe beteiligt sind. Bei der Recherche über Themen werden zu einem Stichwort feinere oder gröbere Themen vorgeschlagen. Die semantische Verknüpfung von Termen verbessert die bibliothekarische Erschließung und Recherche, die Anreicherung von Ressourcen sowie Gestaltung von Oberflächen über verschiedene Begriffssysteme und Sprachen hinweg. Mit automatischen Verfahren zur Pflege von Crosskonkordanzen zwischen Thesauri befasst sich unter anderem die »Ontology Alignment Evaluation Initiative« (OAEI), hier wurden Unterschiede von Ontologie-Werkzeugen und Formaten (SKOS, OWL) betrachtet. Ein noch bestehender Mangel an Mehrsprachigkeit von Ontologien und Formaten wurde zum Beispiel im Vortrag der Ontology Engineering Group der Polytechnischen Universität Madrid (OEG-UPM) angedeutet.
    Metadaten verschiedener Quellen Die Dokumentation der Provenienz ist nicht nur für Medien wichtig, sondern - insbesondere wenn Metadaten verschiedener Quellen zusammengeführt werden - auch für die Metadaten selbst. Werden bibliothekarische Metadaten mit Daten aus Web2.0-Quellen angereichert (oder umgekehrt), so sollte mindestens zwischen der Herkunft aus Kulturerbeinstitutionen und Web2.0-Plattformen unterschieden werden. Im Provenance-Workshop wurden verschiedene Vokabulare zur Darstellung der Provenienz von Ressourcen und Metadaten diskutiert. Einen allgemein akzeptierten Ansatz für Linked Data scheint es bisher nicht zu geben - die verfügbaren Ansätze seien teils komplex, sodass auf Metadaten operierende Applikationen speziell auf sie ausgerichtet sein müssten, oder aber unterstützten nicht gut mehrfache Metaaussagen wie zum Beispiel verschachtelte Quellen. Daher empfehle sich eine fallweise pragmatische Vorgehensweise. Dass der Workshop zum Thema Provenance innerhalb weniger Tage ausgebucht war, weist ebenfalls auf die Aktualität des Themas hin. Um für die verschiedensprachigen Wikipedia-Artikel die Datenpflege zu erleichtern, sammelt Wikidata deren Fakten und stellt sie als Datenbasis bereit. Die sogenannten Claims von Wikidata enthalten neben den - über die lokalen Wikipedias divergierenden - Aussagen auch ihre Quellen und Zeitkontexte. Auf die Darstellung der Rechte und Lizenzen der veröffentlichten Bestände an Linked Data wurde mehrfach eingegangen, zum Beispiel in den Vorträgen der Universitätsbibliothek von Amsterdam und der OEG-UPM. Neben den bibliotheksspezifischen Formaten und Schnittstellen trägt auch dies zur Abschottung beziehungsweise Öffnung von Bibliotheksdaten bei. Im Kontext der »Europeana« wird an der Darstellung von Ressourcen-Lizenzen gearbeitet, mithilfe von URLs werden Ressource- und Lizenzinformationen dynamisch zusammen angezeigt."
  12. Göbel, R.: Semantic Web & Linked Data für professionelle Informationsangebote : Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen (2010) 0.01
    0.0055591664 = product of:
      0.02779583 = sum of:
        0.02779583 = weight(_text_:den in 4258) [ClassicSimilarity], result of:
          0.02779583 = score(doc=4258,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 4258, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
      0.2 = coord(1/5)
    
    Abstract
    Mit dem Hype um Web 3.0 und insbesondere den Schlagworten "Semantic Web" und "Linked Open Data" wird wieder einmal die Hoffnung geweckt mit einem Mausklick (bzw. Agenten) alle relevanten Informationen zu erhalten, die man braucht - also perfekte Vollständigkeit und Relevanz über das gesamte WWW hinweg. Informationsangebote müssen hierfür bestimmte strukturelle Voraussetzungen erfüllen. Der Vortrag geht unter praxisorientierten Gesichtspunkten den Fragen nach, welche Strukturen im Rahmen professioneller Wirtschaftsinformationsangebote bereits vorhanden sind und welcher weitere Nutzen erzeugt werden kann. Können sich daraus neue Chancen ergeben oder haben die Anbieter ihre Hausaufgaben für die semantische Suche und "connected data" bereits erledigt und können in Ruhe abwarten bis die hochfliegenden Hoffnungen in der Realität ankommen?
  13. Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013) 0.01
    0.0055591664 = product of:
      0.02779583 = sum of:
        0.02779583 = weight(_text_:den in 936) [ClassicSimilarity], result of:
          0.02779583 = score(doc=936,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 936, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
      0.2 = coord(1/5)
    
    Abstract
    Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
  14. Metadata and semantics research : 7th Research Conference, MTSR 2013 Thessaloniki, Greece, November 19-22, 2013. Proceedings (2013) 0.01
    0.0055297227 = product of:
      0.027648613 = sum of:
        0.027648613 = product of:
          0.04147292 = sum of:
            0.017269647 = weight(_text_:29 in 1155) [ClassicSimilarity], result of:
              0.017269647 = score(doc=1155,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.13602862 = fieldWeight in 1155, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1155)
            0.024203273 = weight(_text_:22 in 1155) [ClassicSimilarity], result of:
              0.024203273 = score(doc=1155,freq=4.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19150631 = fieldWeight in 1155, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1155)
          0.6666667 = coord(2/3)
      0.2 = coord(1/5)
    
    Abstract
    All the papers underwent a thorough and rigorous peer-review process. The review and selection this year was highly competitive and only papers containing significant research results, innovative methods, or novel and best practices were accepted for publication. Only 29 of 89 submissions were accepted as full papers, representing 32.5% of the total number of submissions. Additional contributions covering noteworthy and important results in special tracks or project reports were accepted, totaling 42 accepted contributions. This year's conference included two outstanding keynote speakers. Dr. Stefan Gradmann, a professor arts department of KU Leuven (Belgium) and director of university library, addressed semantic research drawing from his work with Europeana. The title of his presentation was, "Towards a Semantic Research Library: Digital Humanities Research, Europeana and the Linked Data Paradigm". Dr. Michail Salampasis, associate professor from our conference host institution, the Department of Informatics of the Alexander TEI of Thessaloniki, presented new potential, intersecting search and linked data. The title of his talk was, "Rethinking the Search Experience: What Could Professional Search Systems Do Better?"
    Date
    17.12.2013 12:51:22
  15. Borst, T.; Neubert, J.; Seiler, A.: Bibliotheken auf dem Weg in das Semantic Web : Bericht von der SWIB2010 in Köln - unterschiedliche Entwicklungsschwerpunkte (2011) 0.00
    0.004814379 = product of:
      0.024071895 = sum of:
        0.024071895 = weight(_text_:den in 4532) [ClassicSimilarity], result of:
          0.024071895 = score(doc=4532,freq=12.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.23270628 = fieldWeight in 4532, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
      0.2 = coord(1/5)
    
    Content
    "Gegenüber der vorjährigen Veranstaltung war ein deutlicher Fortschritt bei der Entwicklung hin zu einem »Web of Linked Open Data (LOD)« zu erkennen. VertreterInnen aus Einrichtungen wie der Deutschen, der Französischen und der Ungarischen Nationalbibliothek, der Prager Wirtschaftsuniversität, der UB Mannheim, des hbz sowie der ZBW berichteten über ihre Ansätze, Entwicklungen und bereits vorhandenen Angebote und Infrastrukturen. Stand der Entwicklung Im Vordergrund stand dabei zum einen die Transformation und Publikation von semantisch angereicherten Bibliotheksdaten aus den vorhandenen Datenquellen in ein maschinenlesbares RDF-Format zwecks Weiterverarbeitung und Verknüpfung mit anderen Datenbeständen. Auf diese Weise betreibt etwa die Deutsche Nationalbibliothek (DNB) die Veröffentlichung und dauerhafte Addressierbarkeit der Gemeinsamen Normdateien (GND) als in der Erprobungsphase befindlichen LOD-Service. Im Verbund mit anderen internationalen »Gedächtnisinstitutionen« soll dieser Service künftig eine verlässliche Infrastruktur zur Identifikation und Einbindung von Personen, Organisationen oder Konzepten in die eigenen Datenbestände bieten.
    Welchen Nutzen andere Einrichtungen daraus ziehen können, demonstrierte Joachim Neubert von der ZBW bei seiner Vorführung einer LOD-basierten Anwendung für ein digitales Pressearchiv: Verknüpfungen mit entsprechenden Normdatensätzen der DNB ermöglichen das Finden von Personen mit alternativen Namensformen und das Verlinken zu Veröffentlichungen. Durch wechselseitige Verlinkungen, so der die Konferenz einleitende Vortrag von Silke Schomburg (hbz), lassen sich wesentliche Informationen, die von den Bibliotheken innerhalb ihrer jeweiligen Verbünde bislang unabhängig voneinander erfasst werden, austauschen und integrieren - eine wichtige Verbund-Aufgabe. Die ungarische Nationalbibliothek etablierte einen ähnlichen Dienst wie die DNB mit Bezug auf ihre Katalogdaten; unter Übernahme bereits bestehender Komponenten wie Unified Resource Locators (URLs) oder der MARC21-Kodierung der bibliografischen Angaben konnten dabei etablierte Infrastrukturen für LOD genutzt beziehungsweise transformiert werden.
    Einen zweiten Entwicklungsschwerpunkt bildeten Ansätze, die vorhandenen Bibliotheksdaten auf der Basis von derzeit in der Standardisierung befindlichen Beschreibungssprachen wie »Resource Description and Access« (RDA) und Modellierungen wie »Functional Requirements for Bibliograhical Records« (FRBR) so aufzubereiten, dass die Daten durch externe Softwaresysteme allgemein interpretierbar und zum Beispiel in modernen Katalogsystemen navigierbar gemacht werden können. Aufbauend auf den zu Beginn des zweiten Tages vorgetragenen Überlegungen der US-amerikanischen Bibliotheksberaterin Karen Coyle schilderten Vertreter der DNB sowie Stefan Gradmann von der Europeana, wie grundlegende Unterscheidungen zwischen einem Werk (zum Beispiel einem Roman), seiner medialen Erscheinungsform (zum Beispiel als Hörbuch) sowie seiner Manifestation (zum Beispiel als CD-ROM) mithilfe von RDA-Elementen ausgedrückt werden können. Aus der Sicht des World Wide Web Konsortiums (W3C) berichtete Antoine Isaac über die Gründung und Arbeit einer »Library Linked Data Incubator Group«, die sich mit der Inventarisierung typischer Nutzungsfälle und »best practices« für LOD-basierte Anwendungen befasst. Sören Auer von der Universität Leipzig bot einen Überblick zu innovativen Forschungsansätzen, die den von ihm so genannten »Lebenszyklus« von LOD an verschiedenen Stellen unterstützen sollen. Angesprochen wurden dabei verschiedene Projekte unter anderem zur Datenhaltung sowie zur automatischen Verlinkung von LOD.
    Perspektiven Welche Potenziale das Semantic Web schließlich für Wissenschaft und Forschung bietet, zeigte sich in dem Vortrag von Klaus Tochtermann, Direktor der ZBW. Ausgehend von klassischen Wissensmanagement-Prozessen wie dem Recherchieren, der Bereitstellung, der Organisation und der Erschließung von Fachinformationen wurden hier punktuell die Ansätze für semantische Technologien angesprochen. Ein auch für Bibliotheken typischer Anwendungsfall sei etwa die Erweiterung der syntaktisch-basierten Suche um Konzepte aus Fachvokabularen, mit der die ursprüngliche Sucheingabe ergänzt wird. Auf diese Weise können Forschende, so Tochtermann, wesentlich mehr und gleichzeitig auch relevante Dokumente erschließen. Anette Seiler (hbz), die die Konferenz moderiert hatte, zog abschließend ein positives Fazit des - auch in den Konferenzpausen - sehr lebendigen Austauschs der hiesigen und internationalen Bibliotheksszene. Auch das von den Teilnehmern spontan erbetene Feedback fiel außerordentlich erfreulich aus. Per Handzeichen sprach man sich fast einhellig für eine Fortführung der SWIB aus - für Anette Seiler ein Anlass mehr anzukündigen, dass die SWIB 2011 erneut stattfinden wird, diesmal in Hamburg und voraussichtlich wieder Ende November."
  16. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.00
    0.0046326383 = product of:
      0.02316319 = sum of:
        0.02316319 = weight(_text_:den in 4429) [ClassicSimilarity], result of:
          0.02316319 = score(doc=4429,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.22392172 = fieldWeight in 4429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
      0.2 = coord(1/5)
    
    Abstract
    Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch - technisch betrachtet - ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
  17. Weller, K.: Anforderungen an die Wissensrepräsentation im Social Semantic Web (2010) 0.00
    0.0045860778 = product of:
      0.02293039 = sum of:
        0.02293039 = weight(_text_:den in 4061) [ClassicSimilarity], result of:
          0.02293039 = score(doc=4061,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 4061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
      0.2 = coord(1/5)
    
    Abstract
    Dieser Artikel gibt einen Einblick in die aktuelle Verschmelzung von Web 2.0-und Semantic Web-Ansätzen, die als Social Semantic Web beschrieben werden kann. Die Grundidee des Social Semantic Web wird beschrieben und einzelne erste Anwendungsbeispiele vorgestellt. Ein wesentlicher Schwerpunkt dieser Entwicklung besteht in der Umsetzung neuer Methoden und Herangehensweisen im Bereich der Wissensrepräsentation. Dieser Artikel stellt vier Schwerpunkte vor, in denen sich die Wissensrepräsentationsmethoden im Social Semantic Web weiterentwickeln müssen und geht dabei jeweils auf den aktuellen Stand ein.
  18. Nagelschmidt, M.; Meyer, A.; Ehlen, D.: Mit Wiki-Software zum semantischen Web : Modellierungsansätze, Beispiele und Perspektiven (2011) 0.00
    0.0045860778 = product of:
      0.02293039 = sum of:
        0.02293039 = weight(_text_:den in 4895) [ClassicSimilarity], result of:
          0.02293039 = score(doc=4895,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 4895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4895)
      0.2 = coord(1/5)
    
    Abstract
    Es wird ein Überblick über die Ergebnisse dreier Bachelorarbeiten gegeben, die 2010 am Institut für Informationswissenschaft der Fachhochschule Köln entstanden sind. Untersucht wird das Potenzial von Wiki-Software und insbesondere der Wikipedia, um einen Beitrag zur Fortentwicklung eines Semantic Web zu leisten. Die Arbeit von Alexander Meyer befasst sich mit der Struktur der deutschsprachigen Wikipedia und den Möglichkeiten, daraus ein differenziertes Inventar semantischer Relationen anhand der Lemmata- und Kategoriennamen abzuleiten. Die Arbeiten von Astrid Brumm und Dirk Ehlen beschreiben Modellierungsansätze für zwei unterschiedliche Domänen anhand des Semantic MediaWiki.
  19. Meyer, A.: wiki2rdf: Automatische Extraktion von RDF-Tripeln aus Artikelvolltexten der Wikipedia (2013) 0.00
    0.0045860778 = product of:
      0.02293039 = sum of:
        0.02293039 = weight(_text_:den in 1017) [ClassicSimilarity], result of:
          0.02293039 = score(doc=1017,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 1017, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1017)
      0.2 = coord(1/5)
    
    Abstract
    Im Projekt DBpedia werden unter anderem Informationen aus Wikipedia-Artikeln in RDF-Tripel umgewandelt. Dabei werden jedoch nicht die Artikeltexte berücksichtigt, sondern vorrangig die sogenannten Infoboxen, die Informationen enthalten, die bereits strukturiert sind. Im Rahmen einer Masterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin wurde wiki2rdf entwickelt, eine Software zur regelbasierten Extraktion von RDF-Tripeln aus den unstrukturierten Volltexten der Wikipedia. Die Extraktion erfolgt nach Syntax-Parsing mithilfe eines Dependency-Parsers. Exemplarisch wurde wiki2rdf auf 68820 Artikel aus der Kategorie "Wissenschaftler" der deutschsprachigen Wikipedia angewandt. Es wurden 244563 Tripel extrahiert.
  20. Ducker, S.; Linten, M.: Bedarfsgerecht, kontextbezogen, qualitätsgesichert : Von der Information zum Wertschöpfungsfaktor Wissen am Beispiel einer Wissenslandkarte als dynamisches System zur Repräsentation des Wissens in der Berufsbildungsforschung (2010) 0.00
    0.003930924 = product of:
      0.01965462 = sum of:
        0.01965462 = weight(_text_:den in 4273) [ClassicSimilarity], result of:
          0.01965462 = score(doc=4273,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.19000389 = fieldWeight in 4273, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4273)
      0.2 = coord(1/5)
    
    Abstract
    In den Jahren 2002 bis 2007 wurde beim Bundesinstitut für Berufsbildung ein Wissensmanagement-System ("Kommunikations- und Informationssystem Berufliche Bildung") als Portallösung für die deutsche Berufsbildungsforschung aufgebaut. Zentrales Element hierbei ist eine Wissenslandkarte mit rund 1.000 dokumentierten Forschungsprojekten und Themen. Die Autoren zeigen am Beispiel der Literaturdatenbank Berufliche Bildung, wie auf der Basis eines Klassifizierungssystems verschiedene Formen der Wissensrepräsentation kombiniert werden und über die Vernetzung digitaler Informationen in einer gemeinsamen informationstechnologischen Infrastruktur auf verschiedenen Ebenen eine Wertschöpfungskette im Sinne von Linked Data entsteht.

Languages

  • e 40
  • d 22
  • f 1
  • More… Less…

Types

  • a 38
  • m 19
  • s 10
  • el 8
  • x 2
  • More… Less…

Subjects