Search (99 results, page 1 of 5)

  • × theme_ss:"Retrievalalgorithmen"
  1. Van der Veer Martens, B.; Fleet, C. van: Opening the black box of "relevance work" : a domain analysis (2012) 0.22
    0.21971183 = product of:
      0.2746398 = sum of:
        0.03401734 = weight(_text_:b in 247) [ClassicSimilarity], result of:
          0.03401734 = score(doc=247,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.23486741 = fieldWeight in 247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=247)
        0.11918448 = weight(_text_:van in 247) [ClassicSimilarity], result of:
          0.11918448 = score(doc=247,freq=4.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.5228053 = fieldWeight in 247, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=247)
        0.013522064 = weight(_text_:der in 247) [ClassicSimilarity], result of:
          0.013522064 = score(doc=247,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.14807922 = fieldWeight in 247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=247)
        0.107915916 = product of:
          0.21583183 = sum of:
            0.21583183 = weight(_text_:veer in 247) [ClassicSimilarity], result of:
              0.21583183 = score(doc=247,freq=2.0), product of:
                0.36482546 = queryWeight, product of:
                  8.924298 = idf(docFreq=15, maxDocs=44218)
                  0.040880017 = queryNorm
                0.591603 = fieldWeight in 247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.924298 = idf(docFreq=15, maxDocs=44218)
                  0.046875 = fieldNorm(doc=247)
          0.5 = coord(1/2)
      0.8 = coord(4/5)
    
  2. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.09
    0.09416604 = product of:
      0.2354151 = sum of:
        0.19664435 = weight(_text_:van in 2134) [ClassicSimilarity], result of:
          0.19664435 = score(doc=2134,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.86258465 = fieldWeight in 2134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.109375 = fieldNorm(doc=2134)
        0.038770746 = product of:
          0.07754149 = sum of:
            0.07754149 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.07754149 = score(doc=2134,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Date
    30. 3.2001 13:32:22
  3. Rijsbergen, C.J. van: ¬A fast hierarchic clustering algorithm (1970) 0.04
    0.04494728 = product of:
      0.2247364 = sum of:
        0.2247364 = weight(_text_:van in 3300) [ClassicSimilarity], result of:
          0.2247364 = score(doc=3300,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.98581105 = fieldWeight in 3300, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.125 = fieldNorm(doc=3300)
      0.2 = coord(1/5)
    
  4. Crestani, F.; Dominich, S.; Lalmas, M.; Rijsbergen, C.J.K. van: Mathematical, logical, and formal methods in information retrieval : an introduction to the special issue (2003) 0.04
    0.040356874 = product of:
      0.100892186 = sum of:
        0.084276155 = weight(_text_:van in 1451) [ClassicSimilarity], result of:
          0.084276155 = score(doc=1451,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.36967915 = fieldWeight in 1451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=1451)
        0.016616033 = product of:
          0.033232067 = sum of:
            0.033232067 = weight(_text_:22 in 1451) [ClassicSimilarity], result of:
              0.033232067 = score(doc=1451,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.23214069 = fieldWeight in 1451, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1451)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Date
    22. 3.2003 19:27:36
  5. Qi, Q.; Hessen, D.J.; Heijden, P.G.M. van der: Improving information retrieval through correspondenceanalysis instead of latent semantic analysis (2023) 0.04
    0.03911929 = product of:
      0.09779822 = sum of:
        0.084276155 = weight(_text_:van in 1045) [ClassicSimilarity], result of:
          0.084276155 = score(doc=1045,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.36967915 = fieldWeight in 1045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=1045)
        0.013522064 = weight(_text_:der in 1045) [ClassicSimilarity], result of:
          0.013522064 = score(doc=1045,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.14807922 = fieldWeight in 1045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1045)
      0.4 = coord(2/5)
    
  6. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.03
    0.0285913 = product of:
      0.07147825 = sum of:
        0.038246177 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.038246177 = score(doc=2051,freq=4.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.033232067 = product of:
          0.06646413 = sum of:
            0.06646413 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.06646413 = score(doc=2051,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  7. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.03
    0.028341562 = product of:
      0.070853904 = sum of:
        0.045356452 = weight(_text_:b in 3) [ClassicSimilarity], result of:
          0.045356452 = score(doc=3,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.31315655 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.02549745 = weight(_text_:der in 3) [ClassicSimilarity], result of:
          0.02549745 = score(doc=3,freq=4.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.27922085 = fieldWeight in 3, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.4 = coord(2/5)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
    Source
    Spektrum der Wissenschaft. 1999, H.8, S.44-49
  8. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.03
    0.028341562 = product of:
      0.070853904 = sum of:
        0.045356452 = weight(_text_:b in 5392) [ClassicSimilarity], result of:
          0.045356452 = score(doc=5392,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.31315655 = fieldWeight in 5392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0625 = fieldNorm(doc=5392)
        0.02549745 = weight(_text_:der in 5392) [ClassicSimilarity], result of:
          0.02549745 = score(doc=5392,freq=4.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.27922085 = fieldWeight in 5392, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5392)
      0.4 = coord(2/5)
    
    Abstract
    Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
  9. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.02
    0.024087837 = product of:
      0.060219593 = sum of:
        0.028347783 = weight(_text_:b in 868) [ClassicSimilarity], result of:
          0.028347783 = score(doc=868,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.03187181 = weight(_text_:der in 868) [ClassicSimilarity], result of:
          0.03187181 = score(doc=868,freq=16.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34902605 = fieldWeight in 868, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.4 = coord(2/5)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  10. Sembok, T.M.T.; Rijsbergen, C.J. van: IMAGING: a relevant feedback retrieval with nearest neighbour clusters (1994) 0.02
    0.02247364 = product of:
      0.1123682 = sum of:
        0.1123682 = weight(_text_:van in 1071) [ClassicSimilarity], result of:
          0.1123682 = score(doc=1071,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.49290553 = fieldWeight in 1071, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0625 = fieldNorm(doc=1071)
      0.2 = coord(1/5)
    
  11. Fuhr, N.: Theorie des Information Retrieval I : Modelle (2004) 0.02
    0.022379834 = product of:
      0.055949584 = sum of:
        0.028347783 = weight(_text_:b in 2912) [ClassicSimilarity], result of:
          0.028347783 = score(doc=2912,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 2912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2912)
        0.027601799 = weight(_text_:der in 2912) [ClassicSimilarity], result of:
          0.027601799 = score(doc=2912,freq=12.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.30226544 = fieldWeight in 2912, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2912)
      0.4 = coord(2/5)
    
    Abstract
    Information-Retrieval-(IR-)Modelle spezifizieren, wie zur einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Dabei macht jedes Modell bestimmte Annahmen über die Struktur von Dokumenten und Anfragen und definiert dann die so genannte Retrievalfunktion, die das Retrievalgewicht eines Dokumentes bezüglich einer Anfrage bestimmt - im Falle des Booleschen Retrieval etwa eines der Gewichte 0 oder 1. Die Dokumente werden dann nach fallenden Gewichten sortiert und dem Benutzer präsentiert. Zunächst sollen hier einige grundlegende Charakteristika von Retrievalmodellen beschrieben werden, bevor auf die einzelnen Modelle näher eingegangen wird. Wie eingangs erwähnt, macht jedes Modell Annahmen über die Struktur von Dokumenten und Fragen. Ein Dokument kann entweder als Menge oder Multimenge von so genannten Termen aufgefasst werden, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Dabei subsummiert 'Term' einen Suchbegriff, der ein einzelnes Wort, ein mehrgliedriger Begriff oder auch ein komplexes Freitextmuster sein kann. Diese Dokumentrepräsentation wird wiederum auf eine so genannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können; dies ist Aufgabe der in Kapitel B 5 beschriebenen Indexierungsmodelle. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oderl) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Ebenso wie bei Dokumenten können auch die Terme in der Frage entweder ungewichtet oder gewichtet sein. Daneben unterscheidet man zwischen linearen (Frage als Menge von Termen, ungewichtet oder gewichtet) und Booleschen Anfragen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  12. Fuhr, N.: Modelle im Information Retrieval (2023) 0.02
    0.022379834 = product of:
      0.055949584 = sum of:
        0.028347783 = weight(_text_:b in 800) [ClassicSimilarity], result of:
          0.028347783 = score(doc=800,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.027601799 = weight(_text_:der in 800) [ClassicSimilarity], result of:
          0.027601799 = score(doc=800,freq=12.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.30226544 = fieldWeight in 800, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
      0.4 = coord(2/5)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.02
    0.022185056 = product of:
      0.055462636 = sum of:
        0.039686892 = weight(_text_:b in 4968) [ClassicSimilarity], result of:
          0.039686892 = score(doc=4968,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.27401197 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
        0.015775742 = weight(_text_:der in 4968) [ClassicSimilarity], result of:
          0.015775742 = score(doc=4968,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.17275909 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
      0.4 = coord(2/5)
    
    Abstract
    Discovery-Systeme bieten meist als Standardeinstellung eine Sortierung nach Relevanz an. Wie die Relevanz ermittelt wird, ist häufig intransparent. Dabei wären Kenntnisse darüber aus Nutzersicht ein wichtiger Faktor in der Informationskompetenz, während Bibliotheken sicherstellen sollten, dass das Ranking zum eigenen Bestand und Publikum passt. In diesem Aufsatz wird dargestellt, wie Discovery-Systeme Treffer auswählen und bewerten. Dazu gehören Indexierung, Prozessierung, Text-Matching und weitere Relevanzkriterien, z. B. Popularität oder Verfügbarkeit. Schließlich müssen alle betrachteten Kriterien zu einem zentralen Score zusammengefasst werden. Ein besonderer Fokus wird auf das Ranking von EBSCO Discovery Service, Primo und Summon gelegt.
  14. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.02
    0.019060865 = product of:
      0.047652163 = sum of:
        0.02549745 = weight(_text_:der in 1484) [ClassicSimilarity], result of:
          0.02549745 = score(doc=1484,freq=4.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.27922085 = fieldWeight in 1484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.022154713 = product of:
          0.044309426 = sum of:
            0.044309426 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.044309426 = score(doc=1484,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  15. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.02
    0.018683905 = product of:
      0.04670976 = sum of:
        0.027324388 = weight(_text_:der in 3276) [ClassicSimilarity], result of:
          0.027324388 = score(doc=3276,freq=6.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.29922754 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.019385373 = product of:
          0.038770746 = sum of:
            0.038770746 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.038770746 = score(doc=3276,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
  16. Shiri, A.A.; Revie, C.: Query expansion behavior within a thesaurus-enhanced search environment : a user-centered evaluation (2006) 0.02
    0.01687779 = product of:
      0.04219448 = sum of:
        0.028347783 = weight(_text_:b in 56) [ClassicSimilarity], result of:
          0.028347783 = score(doc=56,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=56)
        0.013846695 = product of:
          0.02769339 = sum of:
            0.02769339 = weight(_text_:22 in 56) [ClassicSimilarity], result of:
              0.02769339 = score(doc=56,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.19345059 = fieldWeight in 56, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=56)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    The study reported here investigated the query expansion behavior of end-users interacting with a thesaurus-enhanced search system on the Web. Two groups, namely academic staff and postgraduate students, were recruited into this study. Data were collected from 90 searches performed by 30 users using the OVID interface to the CAB abstracts database. Data-gathering techniques included questionnaires, screen capturing software, and interviews. The results presented here relate to issues of search-topic and search-term characteristics, number and types of expanded queries, usefulness of thesaurus terms, and behavioral differences between academic staff and postgraduate students in their interaction. The key conclusions drawn were that (a) academic staff chose more narrow and synonymous terms than did postgraduate students, who generally selected broader and related terms; (b) topic complexity affected users' interaction with the thesaurus in that complex topics required more query expansion and search term selection; (c) users' prior topic-search experience appeared to have a significant effect on their selection and evaluation of thesaurus terms; (d) in 50% of the searches where additional terms were suggested from the thesaurus, users stated that they had not been aware of the terms at the beginning of the search; this observation was particularly noticeable in the case of postgraduate students.
    Date
    22. 7.2006 16:32:43
  17. ¬An introduction to information retrieval (o.J.) 0.02
    0.01685523 = product of:
      0.084276155 = sum of:
        0.084276155 = weight(_text_:van in 4533) [ClassicSimilarity], result of:
          0.084276155 = score(doc=4533,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.36967915 = fieldWeight in 4533, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=4533)
      0.2 = coord(1/5)
    
    Abstract
    In the beginning IR was dominated by Boolean retrieval, described in the next section. This could be called the antediluvian period, or generation zero. The first generation of IR research dates from the early sixties, and was dominated by model building, experimentation, and heuristics. The big names were Gerry Salton and Karen Sparck Jones. The second period, which began in the mid-seventies, saw a big shift towards mathematics, and a rise of the IR model based upon probability theory - probabilistic IR. The big name here was, and continues to be, Stephen Robertson. More recently Keith van Rijsbergen has led a group that has developed underlying logical models of IR, but interesting as this new work is, it has not as yet led to results that offer improvements for the IR system builder. Xapian is firmly placed as a system that implements, or tries to implement, the probabilistic IR model. (We say 'tries' because sometimes implementation efficiency and theoretical complexity demand certain short-cuts.)
  18. Ziegler, B.: ESS: ein schneller Algorithmus zur Mustersuche in Zeichenfolgen (1996) 0.02
    0.015874757 = product of:
      0.079373784 = sum of:
        0.079373784 = weight(_text_:b in 7543) [ClassicSimilarity], result of:
          0.079373784 = score(doc=7543,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.54802394 = fieldWeight in 7543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.109375 = fieldNorm(doc=7543)
      0.2 = coord(1/5)
    
  19. Ruthven, T.; Lalmas, M.; Rijsbergen, K.van: Incorporating user research behavior into relevance feedback (2003) 0.01
    0.014046025 = product of:
      0.07023013 = sum of:
        0.07023013 = weight(_text_:van in 5169) [ClassicSimilarity], result of:
          0.07023013 = score(doc=5169,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.30806595 = fieldWeight in 5169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5169)
      0.2 = coord(1/5)
    
    Abstract
    Ruthven, Mounia, and van Rijsbergen rank and select terms for query expansion using information gathered on searcher evaluation behavior. Using the TREC Financial Times and Los Angeles Times collections and search topics from TREC-6 placed in simulated work situations, six student subjects each preformed three searches on an experimental system and three on a control system with instructions to search by natural language expression in any way they found comfortable. Searching was analyzed for behavior differences between experimental and control situations, and for effectiveness and perceptions. In three experiments paired t-tests were the analysis tool with controls being a no relevance feedback system, a standard ranking for automatic expansion system, and a standard ranking for interactive expansion while the experimental systems based ranking upon user information on temporal relevance and partial relevance. Two further experiments compare using user behavior (number assessed relevant and similarity of relevant documents) to choose a query expansion technique against a non-selective technique and finally the effect of providing the user with knowledge of the process. When partial relevance data and time of assessment data are incorporated in term ranking more relevant documents were recovered in fewer iterations, however retrieval effectiveness overall was not improved. The subjects, none-the-less, rated the suggested terms as more useful and used them more heavily. Explanations of what the feedback techniques were doing led to higher use of the techniques.
  20. Wiggers, G.; Verberne, S.; Loon, W. van; Zwenne, G.-J.: Bibliometric-enhanced legal information retrieval : combining usage and citations as flavors of impact relevance (2023) 0.01
    0.014046025 = product of:
      0.07023013 = sum of:
        0.07023013 = weight(_text_:van in 1022) [ClassicSimilarity], result of:
          0.07023013 = score(doc=1022,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.30806595 = fieldWeight in 1022, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1022)
      0.2 = coord(1/5)
    

Years

Languages

  • e 60
  • d 37
  • m 1
  • More… Less…

Types

  • a 84
  • x 7
  • m 4
  • el 3
  • r 2
  • s 1
  • More… Less…