Search (3 results, page 1 of 1)

  • × author_ss:"Hofmann, M."
  1. Goslin, K.; Hofmann, M.: ¬A Wikipedia powered state-based approach to automatic search query enhancement (2018) 0.00
    0.0039750547 = product of:
      0.027825382 = sum of:
        0.008977311 = weight(_text_:information in 5083) [ClassicSimilarity], result of:
          0.008977311 = score(doc=5083,freq=4.0), product of:
            0.0545481 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031073077 = queryNorm
            0.16457605 = fieldWeight in 5083, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5083)
        0.01884807 = weight(_text_:retrieval in 5083) [ClassicSimilarity], result of:
          0.01884807 = score(doc=5083,freq=2.0), product of:
            0.09399342 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031073077 = queryNorm
            0.20052543 = fieldWeight in 5083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5083)
      0.14285715 = coord(2/14)
    
    Abstract
    This paper describes the development and testing of a novel Automatic Search Query Enhancement (ASQE) algorithm, the Wikipedia N Sub-state Algorithm (WNSSA), which utilises Wikipedia as the sole data source for prior knowledge. This algorithm is built upon the concept of iterative states and sub-states, harnessing the power of Wikipedia's data set and link information to identify and utilise reoccurring terms to aid term selection and weighting during enhancement. This algorithm is designed to prevent query drift by making callbacks to the user's original search intent by persisting the original query between internal states with additional selected enhancement terms. The developed algorithm has shown to improve both short and long queries by providing a better understanding of the query and available data. The proposed algorithm was compared against five existing ASQE algorithms that utilise Wikipedia as the sole data source, showing an average Mean Average Precision (MAP) improvement of 0.273 over the tested existing ASQE algorithms.
    Source
    Information processing and management. 54(2018) no.4, S.726-739
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  2. Hofmann, M.: TREC Konferenzbericht (7.10.93) (1995) 0.00
    0.0025385902 = product of:
      0.03554026 = sum of:
        0.03554026 = weight(_text_:retrieval in 5005) [ClassicSimilarity], result of:
          0.03554026 = score(doc=5005,freq=4.0), product of:
            0.09399342 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031073077 = queryNorm
            0.37811437 = fieldWeight in 5005, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=5005)
      0.071428575 = coord(1/14)
    
    Abstract
    Ziel der US-amerikanischen TREC (Texte REtrieval Conference) Initiative ist es, zum einen Standard-Kollektionen von Teten zu erstellen, auf deren Basis verschiedene Retrieval-Ansätze verglichen werden können. Zum anderen sollen Kollektionen einer Grösse aufgebaut werden, die realistischen Anwendungen nahe kommen. Damit soll das alte Vorurteil der Untauglichkeit neuerer IR-Methoden (bzgl. Effizienz und Effektivität) für größere Darenbasen widerlegt werden.
  3. Hofmann, M.; Simon, L.: Problemlösung Hypertext : Grundlagen - Entwicklung - Anwendung (1995) 0.00
    3.7785227E-4 = product of:
      0.0052899313 = sum of:
        0.0052899313 = weight(_text_:information in 2474) [ClassicSimilarity], result of:
          0.0052899313 = score(doc=2474,freq=2.0), product of:
            0.0545481 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031073077 = queryNorm
            0.09697737 = fieldWeight in 2474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2474)
      0.071428575 = coord(1/14)
    
    Abstract
    Dieses Buch ist ein Problemlöser für Projektmanager, die den Einsatz von Hyperteextsystemen erwägen, ebenso für die Entwickler und auch für den interessierten Anwender, der die Hintergründe von Hypertextsystemen verstehen will. Präzise Informationen zu den Grundlagen von Hypertext schaffen die Basis sich sicher in diesem Feld zu bewegen, sich gezielt weitergehende Information zu beschaffen und eigenständig Entwicklungstendenzen abzuschätzen. Eine ausführliche Beschreibung der Entwicklung von Hypertextanwendungen leistet die notwendige Hilfe für die Gestaltung von Hypertexten. Der Leser wird in die Lage versetzt, Chancen und Probleme von Hypertextprojekten frühzeitig zu erkennen und optimale Lösungen zu finden. Beispiele illustrieren tatsächlich realisierte und für den praktischen Einsatz konizpierte Anwendungen das Potential von Hypertext und geben Anregungen für die weitere Entwicklung von Hypertextsystemen.