Search (4 results, page 1 of 1)

  • × author_ss:"Sure, Y."
  • × language_ss:"d"
  1. Sure, Y.; Tempich, C.: Wissensvernetzung in Organisationen (2006) 0.01
    0.0116305975 = product of:
      0.06978358 = sum of:
        0.06978358 = weight(_text_:b in 5800) [ClassicSimilarity], result of:
          0.06978358 = score(doc=5800,freq=8.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.46973482 = fieldWeight in 5800, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=5800)
      0.16666667 = coord(1/6)
    
    Abstract
    Das richtige Wissen zur richtigen Zeit zur Verfügung zu stellen, ist eines der Hauptziele im Wissensmanagement. Wissensmodellierung mit Ontologien bietet Lösungen für viele der dabei zu bewältigenden Aufgaben wie z. B. der Vernetzung von unterschiedlichen Wissensträgern und Wissensquellen und hat sich als integraler Bestandteil zahlreicher Wissensmanagementanwendungen etabliert. Getrieben durch neue Organisationsparadigmen wie z. B. Virtuelle Organisationen und neue Kommunikationsparadigmen wie z. B. Peer-To-Peer gewinnt dezentrales Wissensmanagement zunehmend an Bedeutung. Insbesondere gibt es in solchen Umgebungen auch neue Herausforderungen für die Modellierung von Wissen wie z. B. Einigung bei der Modellierung in verteilten Umgebungen. In diesem Kapitel wird die Methodik DILIGENT zur Erstellung, Wartung und Pflege von Ontologien in verteilten und dynamischen Umgebungen vorgestellt und anhand praktischer Beispiele veranschaulicht. Neben dem zugrunde liegenden Prozessmodell zur Wissensmodellierung wird schwerpunktartig die Unterstützung von Argumentationen während der Wissensmodellierung in verteilten Umgebungen beleuchtet, welche den dezentralen Einigungsprozess unterstützt.
  2. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.01
    0.008224075 = product of:
      0.049344447 = sum of:
        0.049344447 = weight(_text_:b in 3392) [ClassicSimilarity], result of:
          0.049344447 = score(doc=3392,freq=4.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.3321527 = fieldWeight in 3392, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.16666667 = coord(1/6)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
  3. Mayr, P.; Mutschke, P.; Schaer, P.; Sure, Y.: Mehrwertdienste für das Information Retrieval (2013) 0.01
    0.006784515 = product of:
      0.04070709 = sum of:
        0.04070709 = weight(_text_:b in 935) [ClassicSimilarity], result of:
          0.04070709 = score(doc=935,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.27401197 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=935)
      0.16666667 = coord(1/6)
    
    Abstract
    Ziel des Projekts ist die Entwicklung und Erprobung von metadatenbasierten Mehr-wertdiensten für Retrievalumgebungen mit mehreren Datenbanken: a) Search Term Recommender (STR) als Dienst zum automatischen Vorschlagen von Suchbegriffen aus kontrollierten Vokabularen, b) Bradfordizing als Dienst zum Re-Ranking von Ergebnismengen nach Kernzeitschriften und c) Autorenzentralität als Dienst zum Re-Ranking von. Ergebnismengen nach Zentralität der Autoren in Autorennetzwerken. Schwerpunkt des Projektes ist die prototypische mplementierung der drei Mehrwertdienste in einer integrierten Retrieval-Testumgebung und insbesondere deren quantitative und qualitative Evaluation hinsichtlich Verbesserung der Retrievalqualität bei Einsatz der Mehrwertdienste.
  4. Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013) 0.01
    0.0058152988 = product of:
      0.03489179 = sum of:
        0.03489179 = weight(_text_:b in 936) [ClassicSimilarity], result of:
          0.03489179 = score(doc=936,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.23486741 = fieldWeight in 936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
      0.16666667 = coord(1/6)