Search (3 results, page 1 of 1)

  • × author_ss:"Keil, S."
  1. Güldner, D.; Wich, M.; Keil, S.: Überblick über aktuelle Programme zur Erschaffung von Ontologien (2006) 0.01
    0.005821886 = product of:
      0.043664142 = sum of:
        0.014994173 = weight(_text_:und in 6022) [ClassicSimilarity], result of:
          0.014994173 = score(doc=6022,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.24241515 = fieldWeight in 6022, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6022)
        0.02866997 = weight(_text_:des in 6022) [ClassicSimilarity], result of:
          0.02866997 = score(doc=6022,freq=6.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.3709667 = fieldWeight in 6022, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6022)
      0.13333334 = coord(2/15)
    
    Abstract
    Im Zuge des zunehmenden Einflusses des Semantic Web und der damit einhergehenden Verknüpfung von Informationen wird die Modellierung von Ontologien immer bedeutsamer. Hiermit verbunden ist natürlich auch deren Erweiterung um Instanzen, wodurch immer größere Wissensbasen entstehen. In den letzten Jahren sind sowohl aus akademischem, als auch aus industriellem Hintergrund Programme entstanden, die Ontologie-Autoren bei ihrer Arbeit unterstützen sollen. Nach einer kleinen allgemeinen Einführung in den Ablauf des Ontologiebaus soll hier ein Überblick über einige Tools gegeben werden, die aktuell zur Verfügung stehen, ohne Anspruch auf Vollständigkeit zu erheben.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.337-342
  2. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.00
    0.0044873147 = product of:
      0.033654857 = sum of:
        0.016934192 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.016934192 = score(doc=29,freq=10.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.27378 = fieldWeight in 29, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.016720666 = weight(_text_:des in 29) [ClassicSimilarity], result of:
          0.016720666 = score(doc=29,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.21635216 = fieldWeight in 29, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
      0.13333334 = coord(2/15)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.1, S.45-55
  3. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.00
    0.0041379198 = product of:
      0.031034395 = sum of:
        0.012117122 = weight(_text_:und in 3097) [ClassicSimilarity], result of:
          0.012117122 = score(doc=3097,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.19590102 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.018917272 = weight(_text_:des in 3097) [ClassicSimilarity], result of:
          0.018917272 = score(doc=3097,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.24477452 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
      0.13333334 = coord(2/15)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.