Search (2 results, page 1 of 1)

  • × author_ss:"Meyer, A."
  • × theme_ss:"Semantic Web"
  1. Nagelschmidt, M.; Meyer, A.; Ehlen, D.: Mit Wiki-Software zum semantischen Web : Modellierungsansätze, Beispiele und Perspektiven (2011) 0.01
    0.0074930945 = product of:
      0.06743785 = sum of:
        0.06743785 = weight(_text_:software in 4895) [ClassicSimilarity], result of:
          0.06743785 = score(doc=4895,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.43390724 = fieldWeight in 4895, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4895)
      0.11111111 = coord(1/9)
    
    Abstract
    Es wird ein Überblick über die Ergebnisse dreier Bachelorarbeiten gegeben, die 2010 am Institut für Informationswissenschaft der Fachhochschule Köln entstanden sind. Untersucht wird das Potenzial von Wiki-Software und insbesondere der Wikipedia, um einen Beitrag zur Fortentwicklung eines Semantic Web zu leisten. Die Arbeit von Alexander Meyer befasst sich mit der Struktur der deutschsprachigen Wikipedia und den Möglichkeiten, daraus ein differenziertes Inventar semantischer Relationen anhand der Lemmata- und Kategoriennamen abzuleiten. Die Arbeiten von Astrid Brumm und Dirk Ehlen beschreiben Modellierungsansätze für zwei unterschiedliche Domänen anhand des Semantic MediaWiki.
  2. Meyer, A.: wiki2rdf: Automatische Extraktion von RDF-Tripeln aus Artikelvolltexten der Wikipedia (2013) 0.01
    0.005298417 = product of:
      0.047685754 = sum of:
        0.047685754 = weight(_text_:software in 1017) [ClassicSimilarity], result of:
          0.047685754 = score(doc=1017,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 1017, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1017)
      0.11111111 = coord(1/9)
    
    Abstract
    Im Projekt DBpedia werden unter anderem Informationen aus Wikipedia-Artikeln in RDF-Tripel umgewandelt. Dabei werden jedoch nicht die Artikeltexte berücksichtigt, sondern vorrangig die sogenannten Infoboxen, die Informationen enthalten, die bereits strukturiert sind. Im Rahmen einer Masterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin wurde wiki2rdf entwickelt, eine Software zur regelbasierten Extraktion von RDF-Tripeln aus den unstrukturierten Volltexten der Wikipedia. Die Extraktion erfolgt nach Syntax-Parsing mithilfe eines Dependency-Parsers. Exemplarisch wurde wiki2rdf auf 68820 Artikel aus der Kategorie "Wissenschaftler" der deutschsprachigen Wikipedia angewandt. Es wurden 244563 Tripel extrahiert.