Search (6 results, page 1 of 1)

  • × author_ss:"Sure, Y."
  1. Mayr, P.; Mutschke, P.; Petras, V.; Schaer, P.; Sure, Y.: Applying science models for search (2010) 0.04
    0.04064114 = product of:
      0.17272484 = sum of:
        0.016831681 = weight(_text_:und in 4663) [ClassicSimilarity], result of:
          0.016831681 = score(doc=4663,freq=4.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.27704588 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
        0.06953074 = weight(_text_:informationswissenschaft in 4663) [ClassicSimilarity], result of:
          0.06953074 = score(doc=4663,freq=4.0), product of:
            0.123481095 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027411584 = queryNorm
            0.5630881 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
        0.06953074 = weight(_text_:informationswissenschaft in 4663) [ClassicSimilarity], result of:
          0.06953074 = score(doc=4663,freq=4.0), product of:
            0.123481095 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027411584 = queryNorm
            0.5630881 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
        0.016831681 = weight(_text_:und in 4663) [ClassicSimilarity], result of:
          0.016831681 = score(doc=4663,freq=4.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.27704588 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
      0.23529412 = coord(4/17)
    
    Series
    Schriften zur Informationswissenschaft; Bd.58
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  2. Hitzler, P.; Krötzsch, M.; Rudolph, S.; Sure, Y.: Semantic Web : Grundlagen (2008) 0.01
    0.0140788 = product of:
      0.07977986 = sum of:
        0.032733876 = weight(_text_:buch in 358) [ClassicSimilarity], result of:
          0.032733876 = score(doc=358,freq=2.0), product of:
            0.1274466 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027411584 = queryNorm
            0.25684384 = fieldWeight in 358, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.023522992 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.023522992 = score(doc=358,freq=20.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
        0.023522992 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.023522992 = score(doc=358,freq=20.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.3871834 = fieldWeight in 358, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=358)
      0.1764706 = coord(3/17)
    
    Abstract
    Das Buch Semantic Web Grundlagen vermittelt als erstes deutschsprachiges Lehrbuch die Grundlagen des Semantic Web in verständlicher Weise. Es ermöglicht einen einfachen und zügigen Einstieg in Methoden und Technologien des Semantic Web und kann z.B. als solide Grundlage für die Vorbereitung und Durchführung von Vorlesungen genutzt werden. Die Autoren trennen dabei sauber zwischen einer intuitiven Hinführung zur Verwendung semantischer Technologien in der Praxis einerseits, und der Erklärung formaler und theoretischer Hintergründe andererseits. Nur für letzteres werden Grundkenntnisse in Logik vorausgesetzt, die sich bei Bedarf jedoch durch zusätzliche Lektüre und mit Hilfe eines entsprechenden Kapitels im Anhang aneignen lassen.Das Lehrbuch richtet sich primär an Studenten mit Grundkenntnissen in Informatik sowie an interessierte Praktiker welche sich im Bereich Semantic Web fortbilden möchten.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Content
    Inhalt: Die Idee des Semantic Web - Stuktur mit XML - Einfache Ontologien in RDF und RDF Schema - Formale Semantik von RDF(S) - Ontologien in OWL - Ontologien in OWL - Formale Semantik von OWL - Anfragesprachen - Pradikatenlogik - kurzgefasst - Naive Mengenlehre - kurzgefasst
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  3. Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013) 0.01
    0.0066417856 = product of:
      0.056455176 = sum of:
        0.028227588 = weight(_text_:und in 936) [ClassicSimilarity], result of:
          0.028227588 = score(doc=936,freq=20.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.46462005 = fieldWeight in 936, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.028227588 = weight(_text_:und in 936) [ClassicSimilarity], result of:
          0.028227588 = score(doc=936,freq=20.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.46462005 = fieldWeight in 936, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
      0.11764706 = coord(2/17)
    
    Abstract
    Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
  4. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.01
    0.005940594 = product of:
      0.050495047 = sum of:
        0.025247524 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
          0.025247524 = score(doc=3392,freq=16.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.41556883 = fieldWeight in 3392, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.025247524 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
          0.025247524 = score(doc=3392,freq=16.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.41556883 = fieldWeight in 3392, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.11764706 = coord(2/17)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
    Footnote
    Beitrag für: 25. Oberhofer Kolloquium 2010: Recherche im Google-Zeitalter - Vollständig und präzise!?.
  5. Sure, Y.; Tempich, C.: Wissensvernetzung in Organisationen (2006) 0.01
    0.0051447046 = product of:
      0.04372999 = sum of:
        0.021864995 = weight(_text_:und in 5800) [ClassicSimilarity], result of:
          0.021864995 = score(doc=5800,freq=12.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.35989314 = fieldWeight in 5800, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5800)
        0.021864995 = weight(_text_:und in 5800) [ClassicSimilarity], result of:
          0.021864995 = score(doc=5800,freq=12.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.35989314 = fieldWeight in 5800, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5800)
      0.11764706 = coord(2/17)
    
    Abstract
    Das richtige Wissen zur richtigen Zeit zur Verfügung zu stellen, ist eines der Hauptziele im Wissensmanagement. Wissensmodellierung mit Ontologien bietet Lösungen für viele der dabei zu bewältigenden Aufgaben wie z. B. der Vernetzung von unterschiedlichen Wissensträgern und Wissensquellen und hat sich als integraler Bestandteil zahlreicher Wissensmanagementanwendungen etabliert. Getrieben durch neue Organisationsparadigmen wie z. B. Virtuelle Organisationen und neue Kommunikationsparadigmen wie z. B. Peer-To-Peer gewinnt dezentrales Wissensmanagement zunehmend an Bedeutung. Insbesondere gibt es in solchen Umgebungen auch neue Herausforderungen für die Modellierung von Wissen wie z. B. Einigung bei der Modellierung in verteilten Umgebungen. In diesem Kapitel wird die Methodik DILIGENT zur Erstellung, Wartung und Pflege von Ontologien in verteilten und dynamischen Umgebungen vorgestellt und anhand praktischer Beispiele veranschaulicht. Neben dem zugrunde liegenden Prozessmodell zur Wissensmodellierung wird schwerpunktartig die Unterstützung von Argumentationen während der Wissensmodellierung in verteilten Umgebungen beleuchtet, welche den dezentralen Einigungsprozess unterstützt.
  6. Mayr, P.; Mutschke, P.; Schaer, P.; Sure, Y.: Mehrwertdienste für das Information Retrieval (2013) 0.00
    0.0049007395 = product of:
      0.041656286 = sum of:
        0.020828143 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.020828143 = score(doc=935,freq=8.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.34282678 = fieldWeight in 935, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=935)
        0.020828143 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.020828143 = score(doc=935,freq=8.0), product of:
            0.06075413 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027411584 = queryNorm
            0.34282678 = fieldWeight in 935, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=935)
      0.11764706 = coord(2/17)
    
    Abstract
    Ziel des Projekts ist die Entwicklung und Erprobung von metadatenbasierten Mehr-wertdiensten für Retrievalumgebungen mit mehreren Datenbanken: a) Search Term Recommender (STR) als Dienst zum automatischen Vorschlagen von Suchbegriffen aus kontrollierten Vokabularen, b) Bradfordizing als Dienst zum Re-Ranking von Ergebnismengen nach Kernzeitschriften und c) Autorenzentralität als Dienst zum Re-Ranking von. Ergebnismengen nach Zentralität der Autoren in Autorennetzwerken. Schwerpunkt des Projektes ist die prototypische mplementierung der drei Mehrwertdienste in einer integrierten Retrieval-Testumgebung und insbesondere deren quantitative und qualitative Evaluation hinsichtlich Verbesserung der Retrievalqualität bei Einsatz der Mehrwertdienste.