Search (101 results, page 1 of 6)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.07
    0.07099448 = product of:
      0.33722377 = sum of:
        0.100716956 = weight(_text_:semantische in 4324) [ClassicSimilarity], result of:
          0.100716956 = score(doc=4324,freq=6.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.7233352 = fieldWeight in 4324, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.13805601 = weight(_text_:ontologie in 4324) [ClassicSimilarity], result of:
          0.13805601 = score(doc=4324,freq=4.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.765232 = fieldWeight in 4324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.08622295 = weight(_text_:suche in 4324) [ClassicSimilarity], result of:
          0.08622295 = score(doc=4324,freq=6.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.6692675 = fieldWeight in 4324, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.012227853 = product of:
          0.024455706 = sum of:
            0.024455706 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.024455706 = score(doc=4324,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  2. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.06
    0.062481705 = product of:
      0.2967881 = sum of:
        0.100716956 = weight(_text_:semantische in 1852) [ClassicSimilarity], result of:
          0.100716956 = score(doc=1852,freq=6.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.7233352 = fieldWeight in 1852, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.09762034 = weight(_text_:ontologie in 1852) [ClassicSimilarity], result of:
          0.09762034 = score(doc=1852,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.54110074 = fieldWeight in 1852, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.08622295 = weight(_text_:suche in 1852) [ClassicSimilarity], result of:
          0.08622295 = score(doc=1852,freq=6.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.6692675 = fieldWeight in 1852, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.012227853 = product of:
          0.024455706 = sum of:
            0.024455706 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.024455706 = score(doc=1852,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
  3. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.04
    0.038508087 = product of:
      0.18291342 = sum of:
        0.030343255 = weight(_text_:web in 4063) [ClassicSimilarity], result of:
          0.030343255 = score(doc=4063,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.36057037 = fieldWeight in 4063, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.030343255 = weight(_text_:web in 4063) [ClassicSimilarity], result of:
          0.030343255 = score(doc=4063,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.36057037 = fieldWeight in 4063, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.07194068 = weight(_text_:semantische in 4063) [ClassicSimilarity], result of:
          0.07194068 = score(doc=4063,freq=6.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.516668 = fieldWeight in 4063, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.05028624 = weight(_text_:suche in 4063) [ClassicSimilarity], result of:
          0.05028624 = score(doc=4063,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.3903247 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.21052632 = coord(4/19)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    Content
    Vgl.: https://shop.iao.fraunhofer.de/publikationen/semantische-suchsysteme-fr-das-internet.html.
    RSWK
    Suchmaschine / Semantic Web / Information Retrieval
    Subject
    Suchmaschine / Semantic Web / Information Retrieval
  4. Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006) 0.03
    0.030862601 = product of:
      0.14659736 = sum of:
        0.018205952 = weight(_text_:web in 6047) [ClassicSimilarity], result of:
          0.018205952 = score(doc=6047,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 6047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.018205952 = weight(_text_:web in 6047) [ClassicSimilarity], result of:
          0.018205952 = score(doc=6047,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 6047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.049841963 = weight(_text_:semantische in 6047) [ClassicSimilarity], result of:
          0.049841963 = score(doc=6047,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 6047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.06034349 = weight(_text_:suche in 6047) [ClassicSimilarity], result of:
          0.06034349 = score(doc=6047,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.46838963 = fieldWeight in 6047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
      0.21052632 = coord(4/19)
    
    Abstract
    In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
  5. Semantic search over the Web (2012) 0.03
    0.027178599 = product of:
      0.12909834 = sum of:
        0.040254876 = weight(_text_:web in 411) [ClassicSimilarity], result of:
          0.040254876 = score(doc=411,freq=22.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.47835067 = fieldWeight in 411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=411)
        0.040254876 = weight(_text_:web in 411) [ClassicSimilarity], result of:
          0.040254876 = score(doc=411,freq=22.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.47835067 = fieldWeight in 411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=411)
        0.015360615 = weight(_text_:services in 411) [ClassicSimilarity], result of:
          0.015360615 = score(doc=411,freq=2.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.1622532 = fieldWeight in 411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.03125 = fieldNorm(doc=411)
        0.033227976 = weight(_text_:semantische in 411) [ClassicSimilarity], result of:
          0.033227976 = score(doc=411,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.23863871 = fieldWeight in 411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=411)
      0.21052632 = coord(4/19)
    
    Abstract
    The Web has become the world's largest database, with search being the main tool that allows organizations and individuals to exploit its huge amount of information. Search on the Web has been traditionally based on textual and structural similarities, ignoring to a large degree the semantic dimension, i.e., understanding the meaning of the query and of the document content. Combining search and semantics gives birth to the idea of semantic search. Traditional search engines have already advertised some semantic dimensions. Some of them, for instance, can enhance their generated result sets with documents that are semantically related to the query terms even though they may not include these terms. Nevertheless, the exploitation of the semantic search has not yet reached its full potential. In this book, Roberto De Virgilio, Francesco Guerra and Yannis Velegrakis present an extensive overview of the work done in Semantic Search and other related areas. They explore different technologies and solutions in depth, making their collection a valuable and stimulating reading for both academic and industrial researchers. The book is divided into three parts. The first introduces the readers to the basic notions of the Web of Data. It describes the different kinds of data that exist, their topology, and their storing and indexing techniques. The second part is dedicated to Web Search. It presents different types of search, like the exploratory or the path-oriented, alongside methods for their efficient and effective implementation. Other related topics included in this part are the use of uncertainty in query answering, the exploitation of ontologies, and the use of semantics in mashup design and operation. The focus of the third part is on linked data, and more specifically, on applying ideas originating in recommender systems on linked data management, and on techniques for the efficiently querying answering on linked data.
    Content
    Inhalt: Introduction.- Part I Introduction to Web of Data.- Topology of the Web of Data.- Storing and Indexing Massive RDF Data Sets.- Designing Exploratory Search Applications upon Web Data Sources.- Part II Search over the Web.- Path-oriented Keyword Search query over RDF.- Interactive Query Construction for Keyword Search on the SemanticWeb.- Understanding the Semantics of Keyword Queries on Relational DataWithout Accessing the Instance.- Keyword-Based Search over Semantic Data.- Semantic Link Discovery over Relational Data.- Embracing Uncertainty in Entity Linking.- The Return of the Entity-Relationship Model: Ontological Query Answering.- Linked Data Services and Semantics-enabled Mashup.- Part III Linked Data Search engines.- A Recommender System for Linked Data.- Flint: from Web Pages to Probabilistic Semantic Data.- Searching and Browsing Linked Data with SWSE.
    Theme
    Semantic Web
    Semantische Interoperabilität
  6. Ziegler, C.: Deus ex Machina : Das Web soll lernen, sich und uns zu verstehen (2002) 0.02
    0.021333933 = product of:
      0.13511491 = sum of:
        0.034329474 = weight(_text_:web in 530) [ClassicSimilarity], result of:
          0.034329474 = score(doc=530,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.4079388 = fieldWeight in 530, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=530)
        0.034329474 = weight(_text_:web in 530) [ClassicSimilarity], result of:
          0.034329474 = score(doc=530,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.4079388 = fieldWeight in 530, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=530)
        0.06645595 = weight(_text_:semantische in 530) [ClassicSimilarity], result of:
          0.06645595 = score(doc=530,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.47727743 = fieldWeight in 530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0625 = fieldNorm(doc=530)
      0.15789473 = coord(3/19)
    
    Abstract
    Das WWW ist dumm. Ein neuer Ansatz soll jetzt dafür sorgen, dass Maschinen Bedeutungen erfassen und Informationen richtig einordnen können. Das ist noch nicht alles: Wenn die Server erst mal das Verstehen gelernt haben sollten, würden sie auch in der Lage sein, uns von den Ergebnissen ihrer Plaudereien untereinander zu berichten - das 'semantische Web' wäre geboren
  7. Pahlevi, S.M.; Kitagawa, H.: Conveying taxonomy context for topic-focused Web search (2005) 0.02
    0.018849121 = product of:
      0.11937777 = sum of:
        0.048168425 = weight(_text_:web in 3310) [ClassicSimilarity], result of:
          0.048168425 = score(doc=3310,freq=14.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.57238775 = fieldWeight in 3310, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3310)
        0.048168425 = weight(_text_:web in 3310) [ClassicSimilarity], result of:
          0.048168425 = score(doc=3310,freq=14.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.57238775 = fieldWeight in 3310, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3310)
        0.023040922 = weight(_text_:services in 3310) [ClassicSimilarity], result of:
          0.023040922 = score(doc=3310,freq=2.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.2433798 = fieldWeight in 3310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.046875 = fieldNorm(doc=3310)
      0.15789473 = coord(3/19)
    
    Abstract
    Introducing context to a user query is effective to improve the search effectiveness. In this article we propose a method employing the taxonomy-based search services such as Web directories to facilitate searches in any Web search interfaces that support Boolean queries. The proposed method enables one to convey current search context an taxonomy of a taxonomy-based search service to the searches conducted with the Web search interfaces. The basic idea is to learn the search context in the form of a Boolean condition that is commonly accepted by many Web search interfaces, and to use the condition to modify the user query before forwarding it to the Web search interfaces. To guarantee that the modified query can always be processed by the Web search interfaces and to make the method adaptive to different user requirements an search result effectiveness, we have developed new fast classification learning algorithms.
  8. Faaborg, A.; Lagoze, C.: Semantic browsing (2003) 0.02
    0.018360559 = product of:
      0.11628354 = sum of:
        0.052027844 = weight(_text_:web in 1026) [ClassicSimilarity], result of:
          0.052027844 = score(doc=1026,freq=12.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.6182494 = fieldWeight in 1026, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1026)
        0.052027844 = weight(_text_:web in 1026) [ClassicSimilarity], result of:
          0.052027844 = score(doc=1026,freq=12.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.6182494 = fieldWeight in 1026, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1026)
        0.012227853 = product of:
          0.024455706 = sum of:
            0.024455706 = weight(_text_:22 in 1026) [ClassicSimilarity], result of:
              0.024455706 = score(doc=1026,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.2708308 = fieldWeight in 1026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1026)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    We have created software applications that allow users to both author and use Semantic Web metadata. To create and use a layer of semantic content on top of the existing Web, we have (1) implemented a user interface that expedites the task of attributing metadata to resources on the Web, and (2) augmented a Web browser to leverage this semantic metadata to provide relevant information and tasks to the user. This project provides a framework for annotating and reorganizing existing files, pages, and sites on the Web that is similar to Vannevar Bushrsquos original concepts of trail blazing and associative indexing.
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
    Theme
    Semantic Web
  9. Beier, H.: Vom Wort zum Wissen : Semantische Netze als Mittel gegen die Informationsflut (2004) 0.02
    0.017702704 = product of:
      0.1681757 = sum of:
        0.049841963 = weight(_text_:semantische in 2302) [ClassicSimilarity], result of:
          0.049841963 = score(doc=2302,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 2302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.11833373 = weight(_text_:ontologie in 2302) [ClassicSimilarity], result of:
          0.11833373 = score(doc=2302,freq=4.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.6559132 = fieldWeight in 2302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
      0.10526316 = coord(2/19)
    
    Abstract
    "Thesaurus linguae latinae" - so heißt eine der frühesten Wort-Sammlungen. Seit Alters her beschäftigen sich Menschen mit der qualifizierten Aufbereitung von Information. Noch älter ist sogar das Konzept der Ontologie (wörtlich: die "Lehre vom Sein"), die sich als Disziplin der Philosophie bereits seit Aristoteles (384-322 v. Chr.) mit einer objektivistischen Beschreibung der Wirklichkeit beschäftigt. Ontologien - als Disziplin des modernen Wissensmanagements-sind eine Methode, in möglichst kompakter Form, d.h. unter Verwendung von Konzepten in verschiedenen Meta-Ebenen die reale Welt zu beschreiben. Thesaurus und Ontologie stellen zwei Konzepte dar, die auch heute noch in der Wissenschaft - und in jüngster Zeit mit zunehmender Bedeutung auch in der Wirtschaft - im Bereich des Informationsund Wissensmanagements zum Einsatz kommen. Beide spannen gewissermaßen den konzeptionellen Bogen, an dem sich ein pragmatisches Wissensmanagement heutzutage ausrichtet und sich in Form sogenannter semantischer Netze - auch Wissensnetze genannt - wiederfindet.
  10. ALEPH 500 mit multilingualem Thesaurus (2003) 0.02
    0.015277167 = product of:
      0.09675539 = sum of:
        0.018205952 = weight(_text_:web in 1639) [ClassicSimilarity], result of:
          0.018205952 = score(doc=1639,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.018205952 = weight(_text_:web in 1639) [ClassicSimilarity], result of:
          0.018205952 = score(doc=1639,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.06034349 = weight(_text_:suche in 1639) [ClassicSimilarity], result of:
          0.06034349 = score(doc=1639,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.46838963 = fieldWeight in 1639, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
      0.15789473 = coord(3/19)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  11. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.02
    0.015277167 = product of:
      0.09675539 = sum of:
        0.018205952 = weight(_text_:web in 1640) [ClassicSimilarity], result of:
          0.018205952 = score(doc=1640,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 1640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.018205952 = weight(_text_:web in 1640) [ClassicSimilarity], result of:
          0.018205952 = score(doc=1640,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 1640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.06034349 = weight(_text_:suche in 1640) [ClassicSimilarity], result of:
          0.06034349 = score(doc=1640,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.46838963 = fieldWeight in 1640, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
      0.15789473 = coord(3/19)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  12. Scholer, F.; Williams, H.E.; Turpin, A.: Query association surrogates for Web search (2004) 0.02
    0.015136535 = product of:
      0.09586473 = sum of:
        0.036411904 = weight(_text_:web in 2236) [ClassicSimilarity], result of:
          0.036411904 = score(doc=2236,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43268442 = fieldWeight in 2236, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2236)
        0.036411904 = weight(_text_:web in 2236) [ClassicSimilarity], result of:
          0.036411904 = score(doc=2236,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43268442 = fieldWeight in 2236, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2236)
        0.023040922 = weight(_text_:services in 2236) [ClassicSimilarity], result of:
          0.023040922 = score(doc=2236,freq=2.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.2433798 = fieldWeight in 2236, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.046875 = fieldNorm(doc=2236)
      0.15789473 = coord(3/19)
    
    Abstract
    Collection sizes, query rates, and the number of users of Web search engines are increasing. Therefore, there is continued demand for innovation in providing search services that meet user information needs. In this article, we propose new techniques to add additional terms to documents with the goal of providing more accurate searches. Our techniques are based an query association, where queries are stored with documents that are highly similar statistically. We show that adding query associations to documents improves the accuracy of Web topic finding searches by up to 7%, and provides an excellent complement to existing supplement techniques for site finding. We conclude that using document surrogates derived from query association is a valuable new technique for accurate Web searching.
  13. Prasad, A.R.D.; Madalli, D.P.: Faceted infrastructure for semantic digital libraries (2008) 0.01
    0.013744791 = product of:
      0.08705035 = sum of:
        0.033924792 = weight(_text_:web in 1905) [ClassicSimilarity], result of:
          0.033924792 = score(doc=1905,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.40312994 = fieldWeight in 1905, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1905)
        0.033924792 = weight(_text_:web in 1905) [ClassicSimilarity], result of:
          0.033924792 = score(doc=1905,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.40312994 = fieldWeight in 1905, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1905)
        0.019200768 = weight(_text_:services in 1905) [ClassicSimilarity], result of:
          0.019200768 = score(doc=1905,freq=2.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.2028165 = fieldWeight in 1905, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1905)
      0.15789473 = coord(3/19)
    
    Abstract
    Purpose - The paper aims to argue that digital library retrieval should be based on semantic representations and propose a semantic infrastructure for digital libraries. Design/methodology/approach - The approach taken is formal model based on subject representation for digital libraries. Findings - Search engines and search techniques have fallen short of user expectations as they do not give context based retrieval. Deploying semantic web technologies would lead to efficient and more precise representation of digital library content and hence better retrieval. Though digital libraries often have metadata of information resources which can be accessed through OAI-PMH, much remains to be accomplished in making digital libraries semantic web compliant. This paper presents a semantic infrastructure for digital libraries, that will go a long way in providing them and web based information services with products highly customised to users needs. Research limitations/implications - Here only a model for semantic infrastructure is proposed. This model is proposed after studying current user-centric, top-down models adopted in digital library service architectures. Originality/value - This paper gives a generic model for building semantic infrastructure for digital libraries. Faceted ontologies for digital libraries is just one approach. But the same may be adopted by groups working with different approaches in building ontologies to realise efficient retrieval in digital libraries.
    Footnote
    Beitrag eines Themenheftes "Digital libraries and the semantic web: context, applications and research".
    Theme
    Semantic Web
  14. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.01
    0.013548369 = product of:
      0.08580634 = sum of:
        0.036789242 = weight(_text_:web in 1319) [ClassicSimilarity], result of:
          0.036789242 = score(doc=1319,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43716836 = fieldWeight in 1319, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.036789242 = weight(_text_:web in 1319) [ClassicSimilarity], result of:
          0.036789242 = score(doc=1319,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43716836 = fieldWeight in 1319, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.012227853 = product of:
          0.024455706 = sum of:
            0.024455706 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.024455706 = score(doc=1319,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Keyword based querying has been an immediate and efficient way to specify and retrieve related information that the user inquired. However, conventional document ranking based on an automatic assessment of document relevance to the query may not be the best approach when little information is given. Proposes an idea to integrate 2 existing techniques, query expansion and relevance feedback to achieve a concept-based information search for the Web
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue devoted to the Proceedings of the 7th International World Wide Web Conference, held 14-18 April 1998, Brisbane, Australia
  15. Otto, A.: Ordnungssysteme als Wissensbasis für die Suche in textbasierten Datenbeständen : dargestellt am Beispiel einer soziologischen Bibliographie (1998) 0.01
    0.012868739 = product of:
      0.122253016 = sum of:
        0.046991456 = weight(_text_:semantische in 6625) [ClassicSimilarity], result of:
          0.046991456 = score(doc=6625,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.33748612 = fieldWeight in 6625, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=6625)
        0.075261556 = weight(_text_:suche in 6625) [ClassicSimilarity], result of:
          0.075261556 = score(doc=6625,freq=14.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.5841845 = fieldWeight in 6625, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=6625)
      0.10526316 = coord(2/19)
    
    Abstract
    Es wird eine Methode vorgestellt, wie sich Ordnungssysteme für die Suche in textbasierten Datenbeständen verwenden lassen. "Ordnungssystem" wird hier als Oberbegriff für beliebige geordnete Begriffssammlungen verwendet. Dies sind beispielsweise Thesauri, Klassifikationen und formale Systematiken. Weil Thesauri dabei die leistungsfähigsten Ordnungssysteme sind, finden sie eine besondere Berücksichtigung. Der Beitrag ist streng praxisbezogenen und auf die Nutzerschnittstelle konzentriert. Die Basis für die Nutzerschnittstelle bilden Ordnungssysteme, die über eine WWW-Schnittstelle angeboten werden. Je nach Fachgebiet kann der Nutzer ein spezielles Ordnungssystem für die Suche auswählen. Im Unterschied zu klassischen Verfahren werden die Ordnungssysteme nicht zur ausschließlichen Suche in Deskriptorenfeldern, sondern für die Suche in einem Basic Index verwendet. In der Anwendung auf den Basic Index sind die Ordnungssysteme quasi "entkoppelt" von der ursprünglichen Datenbank und den Deskriptorenfeldern, für die das Ordnungssystem entwickelt wurde. Die Inhalte einer Datenbank spielen bei der Wahl der Ordnungssysteme zunächst keine Rolle. Sie machen sich erst bei der Suche in der Anzahl der Treffer bemerkbar: so findet ein rechtswissenschaftlicher Thesaurus natürlicherweise in einer Medizin-Datenbank weniger relevante Dokumente als in einer Rechts-Datenbank, weil das im Rechts-Thesaurus abgebildete Begriffsgut eher in einer Rechts-Datenbank zu finden ist. Das Verfahren ist modular aufgebaut und sieht in der Konzeption nachgeordnete semantische Retrievalverfahren vor, die zu einer Verbesserung von Retrievaleffektivität und -effizienz führen werden. So werden aus einer Ergebnismenge, die ausschließlich durch exakten Zeichenkettenabgleich gefunden wurde, in einem nachfolgenden Schritt durch eine semantische Analyse diejenigen Dokumente herausgefiltert, die für die Suchfrage relevant sind. Die WWW-Nutzerschnittstelle und die Verwendung bereits bestehender Ordnungssysteme führen zu einer Minimierung des Arbeitsaufwands auf Nutzerseite. Die Kosten für eine Suche lassen sich sowohl auf der Input-Seite verringern, indem eine aufwendige "manuelle" Indexierung entfällt, als auch auf der Output-Seite, indem den Nutzern leicht bedienbare Suchoptionen zur Verfügung gestellt werden
  16. Context: nature, impact, and role : 5th International Conference on Conceptions of Library and Information Science, CoLIS 2005, Glasgow 2005; Proceedings (2005) 0.01
    0.012791873 = product of:
      0.0810152 = sum of:
        0.010727961 = weight(_text_:web in 42) [ClassicSimilarity], result of:
          0.010727961 = score(doc=42,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.12748088 = fieldWeight in 42, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.010727961 = weight(_text_:web in 42) [ClassicSimilarity], result of:
          0.010727961 = score(doc=42,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.12748088 = fieldWeight in 42, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.05955928 = weight(_text_:navigieren in 42) [ClassicSimilarity], result of:
          0.05955928 = score(doc=42,freq=4.0), product of:
            0.19828427 = queryWeight, product of:
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.025786186 = queryNorm
            0.3003732 = fieldWeight in 42, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
      0.15789473 = coord(3/19)
    
    Footnote
    Mehrere Beiträge befassen sich mit dem Problem der Relevanz. Erica Cosijn und Theo Bothma (Pretoria) argumentieren, dass für das Benutzerverhalten neben der thematischen Relevanz auch verschiedene andere Relevanzdimensionen eine Rolle spielen und schlagen auf der Basis eines (abermals auf Ingwersen zurückgehenden) erweiterten Relevanzmodells vor, dass IR-Systeme die Möglichkeit zur Abgabe auch kognitiver, situativer und sozio-kognitiver Relevanzurteile bieten sollten. Elaine Toms et al. (Kanada) berichten von einer Studie, in der versucht wurde, die schon vor 30 Jahren von Tefko Saracevic3 erstellten fünf Relevanzdimensionen (kognitiv, motivational, situativ, thematisch und algorithmisch) zu operationalisieren und anhand von Recherchen mit einer Web-Suchmaschine zu untersuchen. Die Ergebnisse zeigten, dass sich diese fünf Dimensionen in drei Typen vereinen lassen, die Benutzer, System und Aufgabe repräsentieren. Von einer völlig anderen Seite nähern sich Olof Sundin und Jenny Johannison (Boras, Schweden) der Relevanzthematik, indem sie einen kommunikationsorientierten, neo-pragmatistischen Ansatz (nach Richard Rorty) wählen, um Informationssuche und Relevanz zu analysieren, und dabei auch auf das Werk von Michel Foucault zurückgreifen. Weitere interessante Artikel befassen sich mit Bradford's Law of Scattering (Hjørland & Nicolaisen), Information Sharing and Timing (Widén-Wulff & Davenport), Annotations as Context for Searching Documents (Agosti & Ferro), sowie dem Nutzen von neuen Informationsquellen wie Web Links, Newsgroups und Blogs für die sozial- und informationswissenschaftliche Forschung (Thelwall & Wouters). In Summe liegt hier ein interessantes und anspruchsvolles Buch vor - inhaltlich natürlich nicht gerade einheitlich und geschlossen, doch dies darf man bei einem Konferenzband ohnedies nicht erwarten. Manche der abgedruckten Beiträge sind sicher nicht einfach zu lesen, lohnen aber die Mühe. Auch für Praktiker aus Bibliothek und Information ist einiges dabei, sofern sie sich für die wissenschaftliche Basis ihrer Tätigkeit interessieren. Fachlich einschlägige Spezial- und grössere Allgemeinbibliotheken sollten das Werk daher unbedingt führen.
    RSWK
    Informationssystem / Navigieren / Kontextbezogenes System / Kongress / Glasgow <2005>
    Subject
    Informationssystem / Navigieren / Kontextbezogenes System / Kongress / Glasgow <2005>
  17. Brunetti, J.M.; Roberto García, R.: User-centered design and evaluation of overview components for semantic data exploration (2014) 0.01
    0.0119441515 = product of:
      0.075646296 = sum of:
        0.034329474 = weight(_text_:web in 1626) [ClassicSimilarity], result of:
          0.034329474 = score(doc=1626,freq=16.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.4079388 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=1626)
        0.034329474 = weight(_text_:web in 1626) [ClassicSimilarity], result of:
          0.034329474 = score(doc=1626,freq=16.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.4079388 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=1626)
        0.0069873445 = product of:
          0.013974689 = sum of:
            0.013974689 = weight(_text_:22 in 1626) [ClassicSimilarity], result of:
              0.013974689 = score(doc=1626,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.15476047 = fieldWeight in 1626, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1626)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Purpose - The growing volumes of semantic data available in the web result in the need for handling the information overload phenomenon. The potential of this amount of data is enormous but in most cases it is very difficult for users to visualize, explore and use this data, especially for lay-users without experience with Semantic Web technologies. The paper aims to discuss these issues. Design/methodology/approach - The Visual Information-Seeking Mantra "Overview first, zoom and filter, then details-on-demand" proposed by Shneiderman describes how data should be presented in different stages to achieve an effective exploration. The overview is the first user task when dealing with a data set. The objective is that the user is capable of getting an idea about the overall structure of the data set. Different information architecture (IA) components supporting the overview tasks have been developed, so they are automatically generated from semantic data, and evaluated with end-users. Findings - The chosen IA components are well known to web users, as they are present in most web pages: navigation bars, site maps and site indexes. The authors complement them with Treemaps, a visualization technique for displaying hierarchical data. These components have been developed following an iterative User-Centered Design methodology. Evaluations with end-users have shown that they get easily used to them despite the fact that they are generated automatically from structured data, without requiring knowledge about the underlying semantic technologies, and that the different overview components complement each other as they focus on different information search needs. Originality/value - Obtaining semantic data sets overviews cannot be easily done with the current semantic web browsers. Overviews become difficult to achieve with large heterogeneous data sets, which is typical in the Semantic Web, because traditional IA techniques do not easily scale to large data sets. There is little or no support to obtain overview information quickly and easily at the beginning of the exploration of a new data set. This can be a serious limitation when exploring a data set for the first time, especially for lay-users. The proposal is to reuse and adapt existing IA components to provide this overview to users and show that they can be generated automatically from the thesaurus and ontologies that structure semantic data while providing a comparable user experience to traditional web sites.
    Date
    20. 1.2015 18:30:22
    Theme
    Semantic Web
  18. Gillitzer, B.: Yewno (2017) 0.01
    0.010766547 = product of:
      0.1022822 = sum of:
        0.095294856 = weight(_text_:navigieren in 3447) [ClassicSimilarity], result of:
          0.095294856 = score(doc=3447,freq=4.0), product of:
            0.19828427 = queryWeight, product of:
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.025786186 = queryNorm
            0.48059714 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0069873445 = product of:
          0.013974689 = sum of:
            0.013974689 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.013974689 = score(doc=3447,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  19. Mayr, P.; Schaer, P.; Mutschke, P.: ¬A science model driven retrieval prototype (2011) 0.01
    0.010669793 = product of:
      0.10136303 = sum of:
        0.05152107 = weight(_text_:services in 649) [ClassicSimilarity], result of:
          0.05152107 = score(doc=649,freq=10.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.5442138 = fieldWeight in 649, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.049841963 = weight(_text_:semantische in 649) [ClassicSimilarity], result of:
          0.049841963 = score(doc=649,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
      0.10526316 = coord(2/19)
    
    Abstract
    This paper is about a better understanding of the structure and dynamics of science and the usage of these insights for compensating the typical problems that arises in metadata-driven Digital Libraries. Three science model driven retrieval services are presented: co-word analysis based query expansion, re-ranking via Bradfordizing and author centrality. The services are evaluated with relevance assessments from which two important implications emerge: (1) precision values of the retrieval services are the same or better than the tf-idf retrieval baseline and (2) each service retrieved a disjoint set of documents. The different services each favor quite other - but still relevant - documents than pure term-frequency based rankings. The proposed models and derived retrieval services therefore open up new viewpoints on the scientific knowledge space and provide an alternative framework to structure scholarly information systems.
    Theme
    Semantische Interoperabilität
  20. Bergamaschi, S.; Domnori, E.; Guerra, F.; Rota, S.; Lado, R.T.; Velegrakis, Y.: Understanding the semantics of keyword queries on relational data without accessing the instance (2012) 0.01
    0.010593389 = product of:
      0.1006372 = sum of:
        0.0503186 = weight(_text_:web in 431) [ClassicSimilarity], result of:
          0.0503186 = score(doc=431,freq=22.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.59793836 = fieldWeight in 431, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=431)
        0.0503186 = weight(_text_:web in 431) [ClassicSimilarity], result of:
          0.0503186 = score(doc=431,freq=22.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.59793836 = fieldWeight in 431, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=431)
      0.10526316 = coord(2/19)
    
    Abstract
    The birth of the Web has brought an exponential growth to the amount of the information that is freely available to the Internet population, overloading users and entangling their efforts to satisfy their information needs. Web search engines such Google, Yahoo, or Bing have become popular mainly due to the fact that they offer an easy-to-use query interface (i.e., based on keywords) and an effective and efficient query execution mechanism. The majority of these search engines do not consider information stored on the deep or hidden Web [9,28], despite the fact that the size of the deep Web is estimated to be much bigger than the surface Web [9,47]. There have been a number of systems that record interactions with the deep Web sources or automatically submit queries them (mainly through their Web form interfaces) in order to index their context. Unfortunately, this technique is only partially indexing the data instance. Moreover, it is not possible to take advantage of the query capabilities of data sources, for example, of the relational query features, because their interface is often restricted from the Web form. Besides, Web search engines focus on retrieving documents and not on querying structured sources, so they are unable to access information based on concepts.
    Source
    Semantic search over the Web. Eds.: R. De Virgilio, et al
    Theme
    Semantic Web

Years

Languages

  • e 70
  • d 29
  • f 1
  • More… Less…

Types

  • a 84
  • el 13
  • m 11
  • x 2
  • r 1
  • s 1
  • More… Less…