Search (308 results, page 1 of 16)

  • × theme_ss:"Wissensrepräsentation"
  1. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.35
    0.35011172 = product of:
      0.70022345 = sum of:
        0.053863343 = product of:
          0.16159002 = sum of:
            0.16159002 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.16159002 = score(doc=400,freq=2.0), product of:
                0.28751752 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03391332 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.16159002 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.16159002 = score(doc=400,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.16159002 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.16159002 = score(doc=400,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.16159002 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.16159002 = score(doc=400,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.16159002 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.16159002 = score(doc=400,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.5 = coord(5/10)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.32
    0.32265157 = product of:
      0.64530313 = sum of:
        0.0359089 = product of:
          0.10772669 = sum of:
            0.10772669 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.10772669 = score(doc=5820,freq=2.0), product of:
                0.28751752 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03391332 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.15234855 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15234855 = score(doc=5820,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15234855 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15234855 = score(doc=5820,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15234855 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15234855 = score(doc=5820,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15234855 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15234855 = score(doc=5820,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(5/10)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.29
    0.29363418 = product of:
      0.48939028 = sum of:
        0.0359089 = product of:
          0.10772669 = sum of:
            0.10772669 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.10772669 = score(doc=701,freq=2.0), product of:
                0.28751752 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03391332 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.022574617 = weight(_text_:web in 701) [ClassicSimilarity], result of:
          0.022574617 = score(doc=701,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.2039694 = fieldWeight in 701, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10772669 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10772669 = score(doc=701,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10772669 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10772669 = score(doc=701,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10772669 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10772669 = score(doc=701,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10772669 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10772669 = score(doc=701,freq=2.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.6 = coord(6/10)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Theme
    Semantic Web
  4. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.03
    0.029572496 = product of:
      0.09857498 = sum of:
        0.033861924 = weight(_text_:web in 4011) [ClassicSimilarity], result of:
          0.033861924 = score(doc=4011,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3059541 = fieldWeight in 4011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.050928697 = weight(_text_:daten in 4011) [ClassicSimilarity], result of:
          0.050928697 = score(doc=4011,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.31551808 = fieldWeight in 4011, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
              0.027568722 = score(doc=4011,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
    Abstract
    Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  5. Becker, H.-G.: MODS2FRBRoo : Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen (2010) 0.03
    0.026169522 = product of:
      0.1308476 = sum of:
        0.027934663 = weight(_text_:web in 4265) [ClassicSimilarity], result of:
          0.027934663 = score(doc=4265,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.25239927 = fieldWeight in 4265, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4265)
        0.10291295 = weight(_text_:daten in 4265) [ClassicSimilarity], result of:
          0.10291295 = score(doc=4265,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.6375756 = fieldWeight in 4265, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4265)
      0.2 = coord(2/10)
    
    Abstract
    Es wird ein Verfahren vorgestellt, mit dem bereits existierende bibliografische Daten in die CIDOC CRM/FRBRoo-Umgebung übertragen werden können. Es handelt sich dabei um einen mehrstufigen XSLT-Prozess, der im MODS-Format vorliegende bibliografische Daten in ein FRBRoo-konformes RDF umwandelt. Dazu werden die unterschiedlichen Publikationstypen in FRBRoo identifiziert und modelliert. Für die Abbildung der einzelnen bibliografischen Kategorien aus dem verwendeten Austauschformat auf die FRBRoo-Klassen wird auf Konzepte von RDA zurückgegriffen.
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  6. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.03
    0.025892043 = product of:
      0.12946022 = sum of:
        0.03456018 = weight(_text_:web in 3742) [ClassicSimilarity], result of:
          0.03456018 = score(doc=3742,freq=6.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3122631 = fieldWeight in 3742, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.09490003 = weight(_text_:daten in 3742) [ClassicSimilarity], result of:
          0.09490003 = score(doc=3742,freq=10.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.58793324 = fieldWeight in 3742, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.2 = coord(2/10)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  7. Weller, K.: Knowledge representation in the Social Semantic Web (2010) 0.02
    0.023446083 = product of:
      0.117230415 = sum of:
        0.07521638 = weight(_text_:web in 4515) [ClassicSimilarity], result of:
          0.07521638 = score(doc=4515,freq=58.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.67960584 = fieldWeight in 4515, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.04201403 = weight(_text_:daten in 4515) [ClassicSimilarity], result of:
          0.04201403 = score(doc=4515,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.26028913 = fieldWeight in 4515, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
      0.2 = coord(2/10)
    
    Abstract
    The main purpose of this book is to sum up the vital and highly topical research issue of knowledge representation on the Web and to discuss novel solutions by combining benefits of folksonomies and Web 2.0 approaches with ontologies and semantic technologies. This book contains an overview of knowledge representation approaches in past, present and future, introduction to ontologies, Web indexing and in first case the novel approaches of developing ontologies. This title combines aspects of knowledge representation for both the Semantic Web (ontologies) and the Web 2.0 (folksonomies). Currently there is no monographic book which provides a combined overview over these topics. focus on the topic of using knowledge representation methods for document indexing purposes. For this purpose, considerations from classical librarian interests in knowledge representation (thesauri, classification schemes etc.) are included, which are not part of most other books which have a stronger background in computer science.
    Footnote
    Rez. in: iwp 62(2011) H.4, S.205-206 (C. Carstens): "Welche Arten der Wissensrepräsentation existieren im Web, wie ausgeprägt sind semantische Strukturen in diesem Kontext, und wie können soziale Aktivitäten im Sinne des Web 2.0 zur Strukturierung von Wissen im Web beitragen? Diesen Fragen widmet sich Wellers Buch mit dem Titel Knowledge Representation in the Social Semantic Web. Der Begriff Social Semantic Web spielt einerseits auf die semantische Strukturierung von Daten im Sinne des Semantic Web an und deutet andererseits auf die zunehmend kollaborative Inhaltserstellung im Social Web hin. Weller greift die Entwicklungen in diesen beiden Bereichen auf und beleuchtet die Möglichkeiten und Herausforderungen, die aus der Kombination der Aktivitäten im Semantic Web und im Social Web entstehen. Der Fokus des Buches liegt dabei primär auf den konzeptuellen Herausforderungen, die sich in diesem Kontext ergeben. So strebt die originäre Vision des Semantic Web die Annotation aller Webinhalte mit ausdrucksstarken, hochformalisierten Ontologien an. Im Social Web hingegen werden große Mengen an Daten von Nutzern erstellt, die häufig mithilfe von unkontrollierten Tags in Folksonomies annotiert werden. Weller sieht in derartigen kollaborativ erstellten Inhalten und Annotationen großes Potenzial für die semantische Indexierung, eine wichtige Voraussetzung für das Retrieval im Web. Das Hauptinteresse des Buches besteht daher darin, eine Brücke zwischen den Wissensrepräsentations-Methoden im Social Web und im Semantic Web zu schlagen. Um dieser Fragestellung nachzugehen, gliedert sich das Buch in drei Teile. . . .
    Insgesamt besticht das Buch insbesondere durch seine breite Sichtweise, die Aktualität und die Fülle an Referenzen. Es ist somit sowohl als Überblickswerk geeignet, das umfassend über aktuelle Entwicklungen und Trends der Wissensrepräsentation im Semantic und Social Web informiert, als auch als Lektüre für Experten, für die es vor allem als kontextualisierte und sehr aktuelle Sammlung von Referenzen eine wertvolle Ressource darstellt." Weitere Rez. in: Journal of Documentation. 67(2011), no.5, S.896-899 (P. Rafferty)
    LCSH
    Semantic Web
    Object
    Web 2.0
    RSWK
    Semantic Web
    World Wide Web 2.0
    Subject
    Semantic Web
    World Wide Web 2.0
    Semantic Web
    Theme
    Semantic Web
  8. Stuckenschmidt, H.: Ontologien : Konzepte, Technologien und Anwendungen (2009) 0.02
    0.022092152 = product of:
      0.11046076 = sum of:
        0.048384257 = weight(_text_:web in 37) [ClassicSimilarity], result of:
          0.048384257 = score(doc=37,freq=6.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.43716836 = fieldWeight in 37, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
        0.0620765 = weight(_text_:forschung in 37) [ClassicSimilarity], result of:
          0.0620765 = score(doc=37,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.376253 = fieldWeight in 37, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
      0.2 = coord(2/10)
    
    Abstract
    Ontologien haben durch die aktuellen Entwicklungen des Semantic Web große Beachtung erfahren, da jetzt Technologien bereitgestellt werden, die eine Verwendung von Ontologien in Informationssystemen ermöglichen. Beginnend mit den grundlegenden Konzepten und Ideen von Ontologien, die der Philosophie und Linguistik entstammen, stellt das Buch den aktuellen Stand der Technik im Bereich unterstützender Technologien aus der Semantic Web Forschung dar und zeigt vielversprechende Anwendungsbiete auf.
    Theme
    Semantic Web
  9. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.02
    0.019966051 = product of:
      0.099830255 = sum of:
        0.031925328 = weight(_text_:web in 3898) [ClassicSimilarity], result of:
          0.031925328 = score(doc=3898,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.2884563 = fieldWeight in 3898, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
        0.06790493 = weight(_text_:daten in 3898) [ClassicSimilarity], result of:
          0.06790493 = score(doc=3898,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.42069077 = fieldWeight in 3898, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
      0.2 = coord(2/10)
    
    Abstract
    Die vorliegende Studie untersucht den Einsatz und den Wirkungsgrad von semantischen Technologien in den betrieblichen Informationssystemen. Einleitend wird kurz in die Semantic Web Thematik und die Hauptanwendungsgebiete semantischer Technologien sowie die damit verbundenen Informationsprozesse eingeführt, um dann anschließend anhand von empirischen Daten den Aufwand, den Nutzen und die Effekte von semantischen Anwendungen beschreibbar zu machen. Dabei versucht die Studie auch die Lessons learned der Unternehmen zu vermitteln, die bereits semantische Technologien einsetzen.
  10. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.02
    0.019046426 = product of:
      0.09523213 = sum of:
        0.05279155 = weight(_text_:web in 2789) [ClassicSimilarity], result of:
          0.05279155 = score(doc=2789,freq=14.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.47698978 = fieldWeight in 2789, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.04244058 = weight(_text_:daten in 2789) [ClassicSimilarity], result of:
          0.04244058 = score(doc=2789,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.26293173 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
      0.2 = coord(2/10)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    LCSH
    Semantic Web
    RSWK
    Semantic Web / Ontologie <Wissensverarbeitung> / Information Retrieval / Verteilung / Metadaten / Datenintegration
    Subject
    Semantic Web / Ontologie <Wissensverarbeitung> / Information Retrieval / Verteilung / Metadaten / Datenintegration
    Semantic Web
    Theme
    Semantic Web
  11. Börner, K.: Atlas of knowledge : anyone can map (2015) 0.02
    0.018303618 = product of:
      0.09151809 = sum of:
        0.072024055 = weight(_text_:daten in 3355) [ClassicSimilarity], result of:
          0.072024055 = score(doc=3355,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 3355, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=3355)
        0.019494032 = product of:
          0.038988065 = sum of:
            0.038988065 = weight(_text_:22 in 3355) [ClassicSimilarity], result of:
              0.038988065 = score(doc=3355,freq=4.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.32829654 = fieldWeight in 3355, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3355)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Date
    22. 1.2017 16:54:03
    22. 1.2017 17:10:56
    RSWK
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
    Subject
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
  12. OWL Web Ontology Language Test Cases (2004) 0.02
    0.017953271 = product of:
      0.08976635 = sum of:
        0.07138721 = weight(_text_:web in 4685) [ClassicSimilarity], result of:
          0.07138721 = score(doc=4685,freq=10.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.6450079 = fieldWeight in 4685, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=4685)
        0.018379148 = product of:
          0.036758296 = sum of:
            0.036758296 = weight(_text_:22 in 4685) [ClassicSimilarity], result of:
              0.036758296 = score(doc=4685,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.30952093 = fieldWeight in 4685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4685)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    This document contains and presents test cases for the Web Ontology Language (OWL) approved by the Web Ontology Working Group. Many of the test cases illustrate the correct usage of the Web Ontology Language (OWL), and the formal meaning of its constructs. Other test cases illustrate the resolution of issues considered by the Working Group. Conformance for OWL documents and OWL document checkers is specified.
    Date
    14. 8.2011 13:33:22
    Theme
    Semantic Web
  13. Reitbauer, A.: IT Konsolidierung und Informationsintegration (2006) 0.02
    0.017470295 = product of:
      0.08735147 = sum of:
        0.027934663 = weight(_text_:web in 5806) [ClassicSimilarity], result of:
          0.027934663 = score(doc=5806,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.25239927 = fieldWeight in 5806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5806)
        0.059416812 = weight(_text_:daten in 5806) [ClassicSimilarity], result of:
          0.059416812 = score(doc=5806,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.36810443 = fieldWeight in 5806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5806)
      0.2 = coord(2/10)
    
    Abstract
    Dieser Artikel betrachtet das Problem steigender Komplexität in IT Systemen. Als wesentlicher Aspekt wird Interoperabilität zwischen Anwendungen dargestellt. Als Modell für die Vielschichtigkeit von Integrationszenarien wird ein Modell präsentiert. das Integration und deren Auswirkungen auf verschiedenen Ebenen darstellt. Semantische Technologien werden in Relation zu bestehenden Ansätzen, wie Entity Relationship Diagrammen und objektorientierter Modellierung, gesetzt. Ein konkretes Beispiel demonstriert die unterschiedlichen Modellierungsergebnisse. Als wesentliche Szenarien für die Verwendung von semantischen Technologien werden Daten- und Prozessintegration dargestellt. Hierbei werden zuerst Probleme mit bestehenden Technologien präsentiert. Anschließend folgt anhand von Beispielen die Demonstration, wie semantische Technologien helfen können, diese Probleme zu lösen.
    Source
    Semantic Web: Wege zur vernetzten Wissensgesellschaft. Hrsg.: T. Pellegrini, u. A. Blumauer
  14. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.02
    0.017411517 = product of:
      0.08705758 = sum of:
        0.044617005 = weight(_text_:web in 4425) [ClassicSimilarity], result of:
          0.044617005 = score(doc=4425,freq=10.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.40312994 = fieldWeight in 4425, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
        0.04244058 = weight(_text_:daten in 4425) [ClassicSimilarity], result of:
          0.04244058 = score(doc=4425,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.26293173 = fieldWeight in 4425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.2 = coord(2/10)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
  15. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.02
    0.017133862 = product of:
      0.08566931 = sum of:
        0.034212835 = weight(_text_:web in 4658) [ClassicSimilarity], result of:
          0.034212835 = score(doc=4658,freq=12.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3091247 = fieldWeight in 4658, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.051456474 = weight(_text_:daten in 4658) [ClassicSimilarity], result of:
          0.051456474 = score(doc=4658,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.3187878 = fieldWeight in 4658, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.2 = coord(2/10)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  16. Hollink, L.; Assem, M. van: Estimating the relevance of search results in the Culture-Web : a study of semantic distance measures (2010) 0.02
    0.01712327 = product of:
      0.08561635 = sum of:
        0.07183199 = weight(_text_:web in 4649) [ClassicSimilarity], result of:
          0.07183199 = score(doc=4649,freq=18.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.64902663 = fieldWeight in 4649, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4649)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 4649) [ClassicSimilarity], result of:
              0.027568722 = score(doc=4649,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    More and more cultural heritage institutions publish their collections, vocabularies and metadata on the Web. The resulting Web of linked cultural data opens up exciting new possibilities for searching and browsing through these cultural heritage collections. We report on ongoing work in which we investigate the estimation of relevance in this Web of Culture. We study existing measures of semantic distance and how they apply to two use cases. The use cases relate to the structured, multilingual and multimodal nature of the Culture Web. We distinguish between measures using the Web, such as Google distance and PMI, and measures using the Linked Data Web, i.e. the semantic structure of metadata vocabularies. We perform a small study in which we compare these semantic distance measures to human judgements of relevance. Although it is too early to draw any definitive conclusions, the study provides new insights into the applicability of semantic distance measures to the Web of Culture, and clear starting points for further research.
    Date
    26.12.2011 13:40:22
    Theme
    Semantic Web
  17. Mayfield, J.; Finin, T.: Information retrieval on the Semantic Web : integrating inference and retrieval 0.02
    0.016901484 = product of:
      0.08450742 = sum of:
        0.06842567 = weight(_text_:web in 4330) [ClassicSimilarity], result of:
          0.06842567 = score(doc=4330,freq=12.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.6182494 = fieldWeight in 4330, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4330)
        0.016081754 = product of:
          0.03216351 = sum of:
            0.03216351 = weight(_text_:22 in 4330) [ClassicSimilarity], result of:
              0.03216351 = score(doc=4330,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.2708308 = fieldWeight in 4330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4330)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    One vision of the Semantic Web is that it will be much like the Web we know today, except that documents will be enriched by annotations in machine understandable markup. These annotations will provide metadata about the documents as well as machine interpretable statements capturing some of the meaning of document content. We discuss how the information retrieval paradigm might be recast in such an environment. We suggest that retrieval can be tightly bound to inference. Doing so makes today's Web search engines useful to Semantic Web inference engines, and causes improvements in either retrieval or inference to lead directly to improvements in the other.
    Date
    12. 2.2011 17:35:22
    Theme
    Semantic Web
  18. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.02
    0.016532013 = product of:
      0.082660064 = sum of:
        0.019953331 = weight(_text_:web in 5901) [ClassicSimilarity], result of:
          0.019953331 = score(doc=5901,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.18028519 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.06270673 = weight(_text_:forschung in 5901) [ClassicSimilarity], result of:
          0.06270673 = score(doc=5901,freq=4.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.38007292 = fieldWeight in 5901, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
      0.2 = coord(2/10)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
    Source
    Semantic Web: Wege zur vernetzten Wissensgesellschaft. Hrsg.: T. Pellegrini, u. A. Blumauer
  19. Gödert, W.; Hubrich, J.; Nagelschmidt, M.: Semantic knowledge representation for information retrieval (2014) 0.02
    0.015426846 = product of:
      0.07713423 = sum of:
        0.063349865 = weight(_text_:web in 987) [ClassicSimilarity], result of:
          0.063349865 = score(doc=987,freq=14.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.57238775 = fieldWeight in 987, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=987)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 987) [ClassicSimilarity], result of:
              0.027568722 = score(doc=987,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 987, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=987)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    This book covers the basics of semantic web technologies and indexing languages, and describes their contribution to improve languages as a tool for subject queries and knowledge exploration. The book is relevant to information scientists, knowledge workers and indexers. It provides a suitable combination of theoretical foundations and practical applications.
    Date
    23. 7.2017 13:49:22
    LCSH
    Semantic Web
    World Wide Web / Subject access
    RSWK
    Semantic Web
    Subject
    Semantic Web
    World Wide Web / Subject access
    Semantic Web
  20. Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010) 0.01
    0.014954013 = product of:
      0.07477006 = sum of:
        0.015962664 = weight(_text_:web in 4261) [ClassicSimilarity], result of:
          0.015962664 = score(doc=4261,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.14422815 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.058807395 = weight(_text_:daten in 4261) [ClassicSimilarity], result of:
          0.058807395 = score(doc=4261,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.36432892 = fieldWeight in 4261, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
      0.2 = coord(2/10)
    
    Content
    Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld

Years

Languages

  • e 238
  • d 65
  • f 1
  • pt 1
  • More… Less…

Types

  • a 199
  • el 98
  • x 22
  • m 21
  • n 12
  • s 10
  • r 4
  • p 3
  • A 1
  • EL 1
  • More… Less…

Subjects

Classifications