Search (149 results, page 1 of 8)

  • × theme_ss:"Retrievalalgorithmen"
  1. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.05
    0.04651249 = product of:
      0.1343694 = sum of:
        0.018297164 = weight(_text_:23 in 3276) [ClassicSimilarity], result of:
          0.018297164 = score(doc=3276,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.012119293 = weight(_text_:und in 3276) [ClassicSimilarity], result of:
          0.012119293 = score(doc=3276,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.2968967 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.018297164 = weight(_text_:23 in 3276) [ClassicSimilarity], result of:
          0.018297164 = score(doc=3276,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.012119293 = weight(_text_:und in 3276) [ClassicSimilarity], result of:
          0.012119293 = score(doc=3276,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.2968967 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.018297164 = weight(_text_:23 in 3276) [ClassicSimilarity], result of:
          0.018297164 = score(doc=3276,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.01900046 = weight(_text_:die in 3276) [ClassicSimilarity], result of:
          0.01900046 = score(doc=3276,freq=10.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.42238742 = fieldWeight in 3276, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.012119293 = weight(_text_:und in 3276) [ClassicSimilarity], result of:
          0.012119293 = score(doc=3276,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.2968967 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.018297164 = weight(_text_:23 in 3276) [ClassicSimilarity], result of:
          0.018297164 = score(doc=3276,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.0058224006 = product of:
          0.0174672 = sum of:
            0.0174672 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.0174672 = score(doc=3276,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.34615386 = coord(9/26)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.87-92
  2. Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008) 0.04
    0.040690932 = product of:
      0.13224553 = sum of:
        0.015683282 = weight(_text_:23 in 2774) [ClassicSimilarity], result of:
          0.015683282 = score(doc=2774,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 2774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.018965743 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.018965743 = score(doc=2774,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.015683282 = weight(_text_:23 in 2774) [ClassicSimilarity], result of:
          0.015683282 = score(doc=2774,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 2774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.018965743 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.018965743 = score(doc=2774,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.015683282 = weight(_text_:23 in 2774) [ClassicSimilarity], result of:
          0.015683282 = score(doc=2774,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 2774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.012615166 = weight(_text_:die in 2774) [ClassicSimilarity], result of:
          0.012615166 = score(doc=2774,freq=6.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.2804399 = fieldWeight in 2774, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.018965743 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.018965743 = score(doc=2774,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.015683282 = weight(_text_:23 in 2774) [ClassicSimilarity], result of:
          0.015683282 = score(doc=2774,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 2774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
      0.30769232 = coord(8/26)
    
    Abstract
    Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
    Date
    23. 2.2005 10:27:09
  3. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.04
    0.039134793 = product of:
      0.12718807 = sum of:
        0.018297164 = weight(_text_:23 in 5023) [ClassicSimilarity], result of:
          0.018297164 = score(doc=5023,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 5023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.0139941545 = weight(_text_:und in 5023) [ClassicSimilarity], result of:
          0.0139941545 = score(doc=5023,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.34282678 = fieldWeight in 5023, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.018297164 = weight(_text_:23 in 5023) [ClassicSimilarity], result of:
          0.018297164 = score(doc=5023,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 5023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.0139941545 = weight(_text_:und in 5023) [ClassicSimilarity], result of:
          0.0139941545 = score(doc=5023,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.34282678 = fieldWeight in 5023, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.018297164 = weight(_text_:23 in 5023) [ClassicSimilarity], result of:
          0.018297164 = score(doc=5023,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 5023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.0120169455 = weight(_text_:die in 5023) [ClassicSimilarity], result of:
          0.0120169455 = score(doc=5023,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.26714125 = fieldWeight in 5023, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.0139941545 = weight(_text_:und in 5023) [ClassicSimilarity], result of:
          0.0139941545 = score(doc=5023,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.34282678 = fieldWeight in 5023, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.018297164 = weight(_text_:23 in 5023) [ClassicSimilarity], result of:
          0.018297164 = score(doc=5023,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 5023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
      0.30769232 = coord(8/26)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.14-23
  4. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.04
    0.038051814 = product of:
      0.12366839 = sum of:
        0.018297164 = weight(_text_:23 in 4968) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4968,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.0139941545 = weight(_text_:und in 4968) [ClassicSimilarity], result of:
          0.0139941545 = score(doc=4968,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.34282678 = fieldWeight in 4968, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.018297164 = weight(_text_:23 in 4968) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4968,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.0139941545 = weight(_text_:und in 4968) [ClassicSimilarity], result of:
          0.0139941545 = score(doc=4968,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.34282678 = fieldWeight in 4968, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.018297164 = weight(_text_:23 in 4968) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4968,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.008497263 = weight(_text_:die in 4968) [ClassicSimilarity], result of:
          0.008497263 = score(doc=4968,freq=2.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.18889739 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.0139941545 = weight(_text_:und in 4968) [ClassicSimilarity], result of:
          0.0139941545 = score(doc=4968,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.34282678 = fieldWeight in 4968, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.018297164 = weight(_text_:23 in 4968) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4968,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
      0.30769232 = coord(8/26)
    
    Abstract
    Discovery-Systeme bieten meist als Standardeinstellung eine Sortierung nach Relevanz an. Wie die Relevanz ermittelt wird, ist häufig intransparent. Dabei wären Kenntnisse darüber aus Nutzersicht ein wichtiger Faktor in der Informationskompetenz, während Bibliotheken sicherstellen sollten, dass das Ranking zum eigenen Bestand und Publikum passt. In diesem Aufsatz wird dargestellt, wie Discovery-Systeme Treffer auswählen und bewerten. Dazu gehören Indexierung, Prozessierung, Text-Matching und weitere Relevanzkriterien, z. B. Popularität oder Verfügbarkeit. Schließlich müssen alle betrachteten Kriterien zu einem zentralen Score zusammengefasst werden. Ein besonderer Fokus wird auf das Ranking von EBSCO Discovery Service, Primo und Summon gelegt.
    Source
    Perspektive Bibliothek. 7(2018) H.2, S.2-23
  5. Maylein, L.; Langenstein, A.: Neues vom Relevanz-Ranking im HEIDI-Katalog der Universitätsbibliothek Heidelberg : Perspektiven für bibliothekarische Dienstleistungen (2013) 0.04
    0.03610625 = product of:
      0.11734531 = sum of:
        0.020911044 = weight(_text_:23 in 775) [ClassicSimilarity], result of:
          0.020911044 = score(doc=775,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.00799666 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.00799666 = score(doc=775,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.020911044 = weight(_text_:23 in 775) [ClassicSimilarity], result of:
          0.020911044 = score(doc=775,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.00799666 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.00799666 = score(doc=775,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.020911044 = weight(_text_:23 in 775) [ClassicSimilarity], result of:
          0.020911044 = score(doc=775,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.009711158 = weight(_text_:die in 775) [ClassicSimilarity], result of:
          0.009711158 = score(doc=775,freq=2.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.21588273 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.00799666 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.00799666 = score(doc=775,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.020911044 = weight(_text_:23 in 775) [ClassicSimilarity], result of:
          0.020911044 = score(doc=775,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
      0.30769232 = coord(8/26)
    
    Abstract
    Das Relevanz-Ranking im Katalog der Universitätsbibliothek Heidelberg HEIDI, bereits 2009 in einem Beitrag in dieser Zeitschrift beschrieben, wurde in den letzten Jahren durch neue Entwicklungen und Methoden stark verbessert. Der Aufsatz beschreibt die Realisierung der bisherigen Rankingmaßnahmen unter der neu eingesetzten Suchmaschinenplattform SOLR. Weiter werden verschiedene neue Möglichkeiten für Rankinganpassungen unter SOLR sowie deren Einsatz im HEIDI-Katalog dargestellt.
    Date
    29. 6.2013 18:06:23
  6. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.04
    0.035864193 = product of:
      0.11655863 = sum of:
        0.015683282 = weight(_text_:23 in 5744) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5744,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.01199499 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.01199499 = score(doc=5744,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015683282 = weight(_text_:23 in 5744) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5744,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.01199499 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.01199499 = score(doc=5744,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015683282 = weight(_text_:23 in 5744) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5744,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.017840536 = weight(_text_:die in 5744) [ClassicSimilarity], result of:
          0.017840536 = score(doc=5744,freq=12.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.3966019 = fieldWeight in 5744, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.01199499 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.01199499 = score(doc=5744,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015683282 = weight(_text_:23 in 5744) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5744,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.30769232 = coord(8/26)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  7. Fuhr, N.: Zur Überwindung der Diskrepanz zwischen Retrievalforschung und -praxis (1990) 0.03
    0.025853375 = product of:
      0.13443755 = sum of:
        0.017881075 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.017881075 = score(doc=6625,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.017881075 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.017881075 = score(doc=6625,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.019422317 = weight(_text_:die in 6625) [ClassicSimilarity], result of:
          0.019422317 = score(doc=6625,freq=8.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.43176547 = fieldWeight in 6625, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.061372004 = weight(_text_:grund in 6625) [ClassicSimilarity], result of:
          0.061372004 = score(doc=6625,freq=2.0), product of:
            0.11308442 = queryWeight, product of:
              6.140059 = idf(docFreq=258, maxDocs=44218)
              0.018417481 = queryNorm
            0.54270965 = fieldWeight in 6625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.140059 = idf(docFreq=258, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.017881075 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.017881075 = score(doc=6625,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
      0.1923077 = coord(5/26)
    
    Abstract
    In diesem Beitrag werden einige Forschungsergebnisse des Information Retrieval vorgestellt, die unmittelbar zur Verbesserung der Retrievalqualität für bereits existierende Datenbanken eingesetzt werden können: Linguistische Algorithmen zur Grund- und Stammformreduktion unterstützen die Suche nach Flexions- und Derivationsformen von Suchtermen. Rankingalgorithmen, die Frage- und Dokumentterme gewichten, führen zu signifikant besseren Retrievalergebnissen als beim Booleschen Retrieval. Durch Relevance Feedback können die Retrievalqualität weiter gesteigert und außerdem der Benutzer bei der sukzessiven Modifikation seiner Frageformulierung unterstützt werden. Es wird eine benutzerfreundliche Bedienungsoberfläche für ein System vorgestellt, das auf diesen Konzepten basiert.
  8. Wu, H.; Salton, G.: ¬The estimation of term relevance weights using relevance feedback (1981) 0.03
    0.02573667 = product of:
      0.16728835 = sum of:
        0.041822087 = weight(_text_:23 in 4728) [ClassicSimilarity], result of:
          0.041822087 = score(doc=4728,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 4728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=4728)
        0.041822087 = weight(_text_:23 in 4728) [ClassicSimilarity], result of:
          0.041822087 = score(doc=4728,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 4728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=4728)
        0.041822087 = weight(_text_:23 in 4728) [ClassicSimilarity], result of:
          0.041822087 = score(doc=4728,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 4728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=4728)
        0.041822087 = weight(_text_:23 in 4728) [ClassicSimilarity], result of:
          0.041822087 = score(doc=4728,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 4728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=4728)
      0.15384616 = coord(4/26)
    
    Date
    8.10.2000 14:23:35
  9. Courtois, M.P.; Berry, M.W.: Results ranking in Web search engines (1999) 0.02
    0.02343898 = product of:
      0.1218827 = sum of:
        0.026138805 = weight(_text_:23 in 3726) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3726,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3726)
        0.026138805 = weight(_text_:23 in 3726) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3726,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3726)
        0.026138805 = weight(_text_:23 in 3726) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3726,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3726)
        0.026138805 = weight(_text_:23 in 3726) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3726,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3726)
        0.01732748 = weight(_text_:5 in 3726) [ClassicSimilarity], result of:
          0.01732748 = score(doc=3726,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.32240748 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.078125 = fieldNorm(doc=3726)
      0.1923077 = coord(5/26)
    
    Abstract
    Comparaison des méthodes de classement de 5 moteurs de recherche (AltaVista, HotBot, Excie, Infoseek et Lycos). Sont testées la présence de tous les mots, la proximité et la localisation
    Source
    Online. 23(1999) no.3, S.39-46
  10. Archuby, C.G.: Interfaces se recuperacion para catalogos en linea con salidas ordenadas por probable relevancia (2000) 0.02
    0.02343898 = product of:
      0.1218827 = sum of:
        0.026138805 = weight(_text_:23 in 5727) [ClassicSimilarity], result of:
          0.026138805 = score(doc=5727,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 5727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5727)
        0.026138805 = weight(_text_:23 in 5727) [ClassicSimilarity], result of:
          0.026138805 = score(doc=5727,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 5727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5727)
        0.026138805 = weight(_text_:23 in 5727) [ClassicSimilarity], result of:
          0.026138805 = score(doc=5727,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 5727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5727)
        0.026138805 = weight(_text_:23 in 5727) [ClassicSimilarity], result of:
          0.026138805 = score(doc=5727,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 5727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5727)
        0.01732748 = weight(_text_:5 in 5727) [ClassicSimilarity], result of:
          0.01732748 = score(doc=5727,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.32240748 = fieldWeight in 5727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.078125 = fieldNorm(doc=5727)
      0.1923077 = coord(5/26)
    
    Date
    29. 1.1996 18:23:13
    Source
    Ciencia da informacao. 29(2000) no.3, S.5-13
  11. Weinstein, A.: Hochprozentig : Tipps and tricks für ein Top-Ranking (2002) 0.02
    0.023408134 = product of:
      0.12172229 = sum of:
        0.026138805 = weight(_text_:23 in 1083) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1083,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
        0.026138805 = weight(_text_:23 in 1083) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1083,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
        0.026138805 = weight(_text_:23 in 1083) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1083,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
        0.017167065 = weight(_text_:die in 1083) [ClassicSimilarity], result of:
          0.017167065 = score(doc=1083,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.38163036 = fieldWeight in 1083, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
        0.026138805 = weight(_text_:23 in 1083) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1083,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
      0.1923077 = coord(5/26)
    
    Abstract
    Die Suchmaschinen haben in den letzten Monaten an ihren Ranking-Algorithmen gefeilt, um Spamern das Handwerk zu erschweren. Internet Pro beleuchtet die Trends im Suchmaschinen-Marketing
    Date
    23. 8.2002 9:48:37
  12. Jones, K.: Linguistic searching versus relevance ranking : DR-LINK and TARGET (1999) 0.02
    0.022519587 = product of:
      0.14637731 = sum of:
        0.036594328 = weight(_text_:23 in 6423) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6423,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6423)
        0.036594328 = weight(_text_:23 in 6423) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6423,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6423)
        0.036594328 = weight(_text_:23 in 6423) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6423,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6423)
        0.036594328 = weight(_text_:23 in 6423) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6423,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6423)
      0.15384616 = coord(4/26)
    
    Source
    Online and CD-ROM review. 23(1999) no.2, S.67-80
  13. Tseng, Y.H.; Lin, Y.I.: Evaluation of fuzzy search, term suggestion, and term relevance feedback in an OPAC system (1998) 0.02
    0.019302502 = product of:
      0.12546626 = sum of:
        0.031366564 = weight(_text_:23 in 6430) [ClassicSimilarity], result of:
          0.031366564 = score(doc=6430,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 6430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=6430)
        0.031366564 = weight(_text_:23 in 6430) [ClassicSimilarity], result of:
          0.031366564 = score(doc=6430,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 6430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=6430)
        0.031366564 = weight(_text_:23 in 6430) [ClassicSimilarity], result of:
          0.031366564 = score(doc=6430,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 6430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=6430)
        0.031366564 = weight(_text_:23 in 6430) [ClassicSimilarity], result of:
          0.031366564 = score(doc=6430,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 6430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=6430)
      0.15384616 = coord(4/26)
    
    Date
    13. 5.1996 21:43:23
  14. Losada, D.E.; Barreiro, A.: Emebedding term similarity and inverse document frequency into a logical model of information retrieval (2003) 0.02
    0.017365066 = product of:
      0.09029835 = sum of:
        0.020911044 = weight(_text_:23 in 1422) [ClassicSimilarity], result of:
          0.020911044 = score(doc=1422,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 1422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=1422)
        0.020911044 = weight(_text_:23 in 1422) [ClassicSimilarity], result of:
          0.020911044 = score(doc=1422,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 1422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=1422)
        0.020911044 = weight(_text_:23 in 1422) [ClassicSimilarity], result of:
          0.020911044 = score(doc=1422,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 1422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=1422)
        0.020911044 = weight(_text_:23 in 1422) [ClassicSimilarity], result of:
          0.020911044 = score(doc=1422,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 1422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=1422)
        0.0066541713 = product of:
          0.019962514 = sum of:
            0.019962514 = weight(_text_:22 in 1422) [ClassicSimilarity], result of:
              0.019962514 = score(doc=1422,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.30952093 = fieldWeight in 1422, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1422)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Date
    22. 3.2003 19:27:23
  15. Lanvent, A.: Know-how - Suchverfahren : Intelligente Suchmaschinen erzielen mit assoziativen und linguistischen Verfahren beste Ergebnisse. (2004) 0.02
    0.017187303 = product of:
      0.089373976 = sum of:
        0.015804786 = weight(_text_:und in 2988) [ClassicSimilarity], result of:
          0.015804786 = score(doc=2988,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3871834 = fieldWeight in 2988, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2988)
        0.015804786 = weight(_text_:und in 2988) [ClassicSimilarity], result of:
          0.015804786 = score(doc=2988,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3871834 = fieldWeight in 2988, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2988)
        0.021025274 = weight(_text_:die in 2988) [ClassicSimilarity], result of:
          0.021025274 = score(doc=2988,freq=24.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.46739984 = fieldWeight in 2988, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2988)
        0.015804786 = weight(_text_:und in 2988) [ClassicSimilarity], result of:
          0.015804786 = score(doc=2988,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3871834 = fieldWeight in 2988, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2988)
        0.02093434 = weight(_text_:art in 2988) [ClassicSimilarity], result of:
          0.02093434 = score(doc=2988,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.25058323 = fieldWeight in 2988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2988)
      0.1923077 = coord(5/26)
    
    Content
    "Die einfachste Form der Volltextsuche ist die Phrasensuche. Hierbei gilt es, den eingegebenen Text in der exakten Schreibweise in sämtlichen relevanten Dokumenten zu finden. Anhand von Joker-Zeichen wie Stern und Fragezeichen kann der Anwender diese Art der Suche erweitern. Boole'sche Parameter verknüpfen einen, zwei oder mehrere Begriffe zu einem Suchstring. Die häufigsten Parameter lauten UND, ODER und NICHT. So lassen sich auch komplexe Anfragen starten, etwa sollen alle Dokumente gefunden werden, die die Begriffe »Schröder« oder »Schroeder«, aber nicht »Bundeskanzler« enthalten. Kennt der Anwender nicht die exakte Schreibweise oder kommen unterschiedliche Ausprägungen eines Wortes in den gesuchten Dokumenten vor, wie Deklinationen, muss er auf fehlertolerante oder linguistische Verfahren zurückgreifen. Einige Tools wie etwa Dt Search und Findword arbeiten mit Wörterbüchern, die auch Flexionen enthalten. Sucht der Nutzer etwa nach »Baum«, findet das Tool auch »Bäume« oder etwa »Baumstamm«. Bei der phonetischen Suche setzen Programme wie Documind Pro und Findword auf einen Algorithmus, der nach dem ähnlichen Klang der Wörter recherchiert. Solche Verfahren sind demnach sprachenabhängig. Sie nehmen den Suchstring »Meier« zum Anlass, auch »Mayer« oder »Meier« nachzuschlagen. Fuzzy Logic ist ein verwandtes Verfahren, das alternative Schreibweisen oder Tippfehler verzeiht. Dieses Verfahren berücksichtigt auch Abweichungen und stellt dabei fest, dass ein bestimmter Begriff zu einem Wortstamm gehört. Eine solche Methode liefert eine größere Trefferliste und findet bei Eingabe von »Microsoft« auch Dokumente mit »Mircosoft« und »Microaoft«. Die Königsdisziplin ist die Assoziative Suche, die die Recherche nach Eingabe eines beliebigen Satzes in der natürlichen Sprache startet. Das Suchkommando »Die Meistertitel von Borussia Mönchengladbach« findet im Idealfall Texte zu den Themen Fußball, Bundesliga und Netzer."
  16. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.02
    0.017040245 = product of:
      0.073841065 = sum of:
        0.0154854655 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=5973,freq=120.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0154854655 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=5973,freq=120.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.015545438 = weight(_text_:die in 5973) [ClassicSimilarity], result of:
          0.015545438 = score(doc=5973,freq=82.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.345581 = fieldWeight in 5973, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0154854655 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=5973,freq=120.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0083737355 = weight(_text_:art in 5973) [ClassicSimilarity], result of:
          0.0083737355 = score(doc=5973,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.100233294 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0034654962 = weight(_text_:5 in 5973) [ClassicSimilarity], result of:
          0.0034654962 = score(doc=5973,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.0644815 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.23076923 = coord(6/26)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."
  17. García Cumbreras, M.A.; Perea-Ortega, J.M.; García Vega, M.; Ureña López, L.A.: Information retrieval with geographical references : relevant documents filtering vs. query expansion (2009) 0.02
    0.016407289 = product of:
      0.085317895 = sum of:
        0.018297164 = weight(_text_:23 in 4222) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4222,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4222)
        0.018297164 = weight(_text_:23 in 4222) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4222,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4222)
        0.018297164 = weight(_text_:23 in 4222) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4222,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4222)
        0.018297164 = weight(_text_:23 in 4222) [ClassicSimilarity], result of:
          0.018297164 = score(doc=4222,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 4222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4222)
        0.012129237 = weight(_text_:5 in 4222) [ClassicSimilarity], result of:
          0.012129237 = score(doc=4222,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.22568524 = fieldWeight in 4222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4222)
      0.1923077 = coord(5/26)
    
    Date
    23. 1.2011 14:19:08
    Source
    Information processing and management. 45(2009) no.5, S.605-614
  18. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.02
    0.016374907 = product of:
      0.07095793 = sum of:
        0.011827219 = weight(_text_:und in 5965) [ClassicSimilarity], result of:
          0.011827219 = score(doc=5965,freq=70.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.28974152 = fieldWeight in 5965, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
        0.011827219 = weight(_text_:und in 5965) [ClassicSimilarity], result of:
          0.011827219 = score(doc=5965,freq=70.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.28974152 = fieldWeight in 5965, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
        0.017507039 = weight(_text_:die in 5965) [ClassicSimilarity], result of:
          0.017507039 = score(doc=5965,freq=104.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.38918814 = fieldWeight in 5965, product of:
              10.198039 = tf(freq=104.0), with freq of:
                104.0 = termFreq=104.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
        0.011827219 = weight(_text_:und in 5965) [ClassicSimilarity], result of:
          0.011827219 = score(doc=5965,freq=70.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.28974152 = fieldWeight in 5965, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
        0.014503737 = weight(_text_:art in 5965) [ClassicSimilarity], result of:
          0.014503737 = score(doc=5965,freq=6.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.17360917 = fieldWeight in 5965, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
        0.0034654962 = weight(_text_:5 in 5965) [ClassicSimilarity], result of:
          0.0034654962 = score(doc=5965,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.0644815 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
      0.23076923 = coord(6/26)
    
    Abstract
    Ein wesentliches Bedürfnis im Rahmen der Mensch-Maschine-Interaktion ist die Suche nach Information. Um Information Retrieval (IR) Systeme kognitiv adäquat zu gestalten und sie an den Menschen anzupassen bieten sich Modelle des Soft Computing an. Ein umfassender state-of-the-art Bericht zu neuronalen Netzen im IR zeigt dass die meisten bestehenden Modelle das Potential neuronaler Netze nicht ausschöpfen. Das vorgestellte COSIMIR-Modell (Cognitive Similarity learning in Information Retrieval) basiert auf neuronalen Netzen und lernt, die Ähnlichkeit zwischen Anfrage und Dokument zu berechnen. Es trägt somit die kognitive Modellierung in den Kern eines IR Systems. Das Transformations-Netzwerk ist ein weiteres neuronales Netzwerk, das die Behandlung von Heterogenität anhand von Expertenurteilen lernt. Das COSIMIR-Modell und das Transformations-Netzwerk werden ausführlich diskutiert und anhand realer Datenmengen evaluiert
    Content
    Kapitel: 1 Einleitung - 2 Grundlagen des Information Retrieval - 3 Grundlagen neuronaler Netze - 4 Neuronale Netze im Information Retrieval - 5 Heterogenität und ihre Behandlung im Information Retrieval - 6 Das COSIMIR-Modell - 7 Experimente mit dem COSIMIR-Modell und dem Transformations-Netzwerk - 8 Fazit
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,
    da nun nach fast 200 Seiten der Hauptteil der Dissertation folgt - die Vorstellung und Bewertung des bereits erwähnten COSIMIR Modells. Das COSIMIR Modell "berechnet die Ähnlichkeit zwischen den zwei anliegenden Input-Vektoren" (P.194). Der Output des Netzwerks wird an einem einzigen Knoten abgegriffen, an dem sich ein sogenannten Relevanzwert einstellt, wenn die Berechnungen der Gewichtungen interner Knoten zum Abschluss kommen. Diese Gewichtungen hängen von den angelegten Inputvektoren, aus denen die Gewichte der ersten Knotenschicht ermittelt werden, und den im Netzwerk vorgegebenen Kantengewichten ab. Die Gewichtung von Kanten ist der Kernpunkt des neuronalen Ansatzes: In Analogie zum biologischen Urbild (Dendrit mit Synapsen) wächst das Gewicht der Kante mit jeder Aktivierung während einer Trainingsphase. Legt man in dieser Phase zwei Inputvektoren, z.B. Dokumentvektor und Ouery gleichzeitig mit dem Relevanzurteil als Wert des Outputknoten an, verteilen sich durch den BackpropagationProzess die Gewichte entlang der Pfade, die zwischen den beteiligten Knoten bestehen. Da alle Knoten miteinander verbunden sind, entstehen nach mehreren Trainingsbeispielen bereits deutlich unterschiedliche Kantengewichte, weil die aktiv beteiligten Kanten die Änderungen akkumulativ speichern. Eine Variation des Verfahrens benutzt das NN als "Transformationsnetzwerk", wobei die beiden Inputvektoren mit einer Dokumentrepräsentation und einem dazugehörigen Indexat (von einem Experten bereitgestellt) belegt werden. Neben der schon aufgezeigten Trainingsnotwendigkeit weisen die Neuronalen Netze eine weitere intrinsische Problematik auf: Je mehr äußere Knoten benötigt werden, desto mehr interne Kanten (und bei der Verwendung von Zwischenschichten auch Knoten) sind zu verwalten, deren Anzahl nicht linear wächst. Dieser algorithmische Befund setzt naiven Einsätzen der NN-Modelle in der Praxis schnell Grenzen, deshalb ist es umso verdienstvoller, dass der Autor einen innovativen Weg zur Lösung des Problems mit den Mitteln des IR vorschlagen kann. Er verwendet das Latent Semantic Indexing, welches Dokumentrepräsentationen aus einem hochdimensionalen Vektorraum in einen niederdimensionalen abbildet, um die Anzahl der Knoten deutlich zu reduzieren. Damit ist eine sehr schöne Synthese gelungen, welche die eingangs angedeuteten formalen Übereinstimmungen zwischen Vektorraummodellen im IR und den NN aufzeigt und ausnutzt.
    Im abschließenden Kapitel des Buchs berichtet der Autor über eine Reihe von Experimenten, die im Kontext unterschiedlicher Anwendungen durchgeführt wurden. Die Evaluationen wurden sehr sorgfältig durchgeführt und werden kompetent kommentiert, so dass der Leser sich ein Bild von der Komplexität der Untersuchungen machen kann. Inhaltlich sind die Ergebnisse unterschiedlich, die Verwendung des NN-Ansatzes ist sehr abhängig von der Menge und Qualität des Trainingsmaterials (so sind die Ergebnisse auf der Cranfield-Kollektion wegen der geringen Anzahl von zur Verfügung stehenden Relevanzurteilen schlechter als die der traditionellen Verfahren). Das Experiment mit Werkstoffinformationen im Projekt WING ist eine eher traditionelle NN-Applikation: Aus Merkmalsvektoren soll auf die "Anwendungsähnlichkeit" von Werkstoffen geschlossen werden, was offenbar gut gelingt. Hier sind die konkurrierenden Verfahren aber weniger im IR zu vermuten, sondern eher im Gebiet des Data Mining. Die Versuche mit Textdaten sind Anregung, hier weitere, systematischere Untersuchungen vorzunehmen. So sollte z.B. nicht nur ein Vergleich mit klassischen One-shot IR-Verfahren durchgeführt werden, viel interessanter und aussagekräftiger ist die Gegenüberstellung von NN-Systemen und lernfähigen IR-Systemen, die z.B. über Relevance Feedback Wissen akkumulieren (vergleichbar den NN in der Trainingsphase). Am Ende könnte dann nicht nur ein einheitliches Modell stehen, sondern auch Erkenntnisse darüber, welches Lernverfahren wann vorzuziehen ist. Fazit: Das Buch ist ein hervorragendes Beispiel der "Schriften zur Informationswissenschaft", mit denen der HI (Hochschulverband für Informationswissenschaft) die Ergebnisse der informationswissenschaftlichen Forschung seit etlichen Jahren einem größerem Publikum vorstellt. Es bietet einen umfassenden Überblick zum dynamisch sich entwickelnden Gebiet der Neuronalen Netze im IR, die sich anschicken, ein "tolerantes Information Retrieval" zu ermöglichen."
  19. Ruthven, I.; Lalmas, M.: Selective relevance feedback using term characteristics (1999) 0.02
    0.01608542 = product of:
      0.10455522 = sum of:
        0.026138805 = weight(_text_:23 in 3824) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3824,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3824)
        0.026138805 = weight(_text_:23 in 3824) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3824,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3824)
        0.026138805 = weight(_text_:23 in 3824) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3824,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3824)
        0.026138805 = weight(_text_:23 in 3824) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3824,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3824)
      0.15384616 = coord(4/26)
    
    Source
    Vocabulary as a central concept in digital libraries: interdisciplinary concepts, challenges, and opportunities : proceedings of the Third International Conference an Conceptions of Library and Information Science (COLIS3), Dubrovnik, Croatia, 23-26 May 1999. Ed. by T. Arpanac et al
  20. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.014830311 = product of:
      0.077117614 = sum of:
        0.017881075 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.017881075 = score(doc=1484,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.017881075 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.017881075 = score(doc=1484,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.01682022 = weight(_text_:die in 1484) [ClassicSimilarity], result of:
          0.01682022 = score(doc=1484,freq=6.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.37391987 = fieldWeight in 1484, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.017881075 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.017881075 = score(doc=1484,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.0066541713 = product of:
          0.019962514 = sum of:
            0.019962514 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.019962514 = score(doc=1484,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22

Authors

Years

Languages

  • e 107
  • d 38
  • chi 2
  • m 1
  • pt 1
  • More… Less…

Types

  • a 132
  • x 7
  • m 6
  • s 3
  • el 2
  • r 2
  • More… Less…