Search (85 results, page 1 of 5)

  • × theme_ss:"Retrievalstudien"
  1. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.05
    0.048462316 = product of:
      0.09692463 = sum of:
        0.08776132 = weight(_text_:methode in 3068) [ClassicSimilarity], result of:
          0.08776132 = score(doc=3068,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.009163312 = product of:
          0.027489934 = sum of:
            0.027489934 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.027489934 = score(doc=3068,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Source
    Young information scientists. 1(2016), S.13-29
  2. Kaltenborn, K.-F.: Endnutzerrecherchen in der CD-ROM-Datenbank Medline : T.1: Evaluations- und Benutzerforschung über Nutzungscharakteristika, Bewertung der Rechercheergebnisse und künftige Informationsgewinnung; T.2: Evaluations- und Benutzerforschung über Recherchequalität und Nutzer-Computer/Datenbank-Interaktion (1991) 0.03
    0.026328396 = product of:
      0.105313584 = sum of:
        0.105313584 = weight(_text_:methode in 5105) [ClassicSimilarity], result of:
          0.105313584 = score(doc=5105,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 5105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=5105)
      0.25 = coord(1/4)
    
    Abstract
    Die Einführung von CD-ROM Datenbanken als neue Informationstechnologie hat die Formen der Informationsgewinnung in bestimmten wissenschaftlichen Fachgebieten grundlegend geändert. Der Beitrag berichtet über Ergebnisse wissenschaftlicher Begleitforschung bei Endnutzerrecherchen in der CD-ROM-Version der Datenbank MEDLINE. Hierzu wurden drei verschiedene Erhebungen durchgeführt. Hiernach ist die überwiegende Zahl der Endnutzer (89,3%) mit dem jeweiligen Rechercheresultat zufrieden, wobei Benutzer mit geringer Rechercheerfahrung eine höhere Zufriedenheitsrate erreichen als Benutzer mit umfangreicheren Recherchekenntnissen. Die Gründe zur Nutzung von CD-ROM-Systemen resultieren voriwegend aus der klinischen Alltagsroutine oder täglichen Forschungspraxis, während vermittelte Online-Literatursuchen tendenziell häufiger im Zusammenhang mit einmaligen Ereignissen der wissenschaftlichen Aus- und Weiterbildung stehen. Die selbständige CD-ROM Literaturrecherche stellt für die befragten Ärzte und Wissenschaftler die bevorzugte Methode der Informationsgewinnung dar. Die analysierten Endnutzerrecherchen weisen allerdings Fehler und Defizite hinsichtlich einer optimalen Suchstrategie auf, die zu unbemerktn Informationsverlusten und zu Fehlbeurteilungen des wissenschaftlichen Kenntnisstandes führen
  3. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.026328396 = product of:
      0.105313584 = sum of:
        0.105313584 = weight(_text_:methode in 6386) [ClassicSimilarity], result of:
          0.105313584 = score(doc=6386,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.25 = coord(1/4)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  4. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.02194033 = product of:
      0.08776132 = sum of:
        0.08776132 = weight(_text_:methode in 5863) [ClassicSimilarity], result of:
          0.08776132 = score(doc=5863,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.25 = coord(1/4)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  5. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.02
    0.02194033 = product of:
      0.08776132 = sum of:
        0.08776132 = weight(_text_:methode in 479) [ClassicSimilarity], result of:
          0.08776132 = score(doc=479,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.25 = coord(1/4)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
  6. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.02
    0.015358231 = product of:
      0.061432924 = sum of:
        0.061432924 = weight(_text_:methode in 494) [ClassicSimilarity], result of:
          0.061432924 = score(doc=494,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.24304965 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.25 = coord(1/4)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
  7. Rijsbergen, C.J. van: ¬A test for the separation of relevant and non-relevant documents in experimental retrieval collections (1973) 0.01
    0.014595355 = product of:
      0.05838142 = sum of:
        0.05838142 = product of:
          0.08757213 = sum of:
            0.043983895 = weight(_text_:29 in 5002) [ClassicSimilarity], result of:
              0.043983895 = score(doc=5002,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.31092256 = fieldWeight in 5002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5002)
            0.043588232 = weight(_text_:22 in 5002) [ClassicSimilarity], result of:
              0.043588232 = score(doc=5002,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.30952093 = fieldWeight in 5002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5002)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    19. 3.1996 11:22:12
    Source
    Journal of documentation. 29(1973) no.3, S.251-257
  8. Chu, H.: Factors affecting relevance judgment : a report from TREC Legal track (2011) 0.01
    0.009122097 = product of:
      0.036488388 = sum of:
        0.036488388 = product of:
          0.05473258 = sum of:
            0.027489934 = weight(_text_:29 in 4540) [ClassicSimilarity], result of:
              0.027489934 = score(doc=4540,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.19432661 = fieldWeight in 4540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4540)
            0.027242646 = weight(_text_:22 in 4540) [ClassicSimilarity], result of:
              0.027242646 = score(doc=4540,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.19345059 = fieldWeight in 4540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4540)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    12. 7.2011 18:29:22
  9. Hofstede, M.: Literatuur over onderwerpen zoeken in de OPC (1994) 0.01
    0.0073306495 = product of:
      0.029322598 = sum of:
        0.029322598 = product of:
          0.08796779 = sum of:
            0.08796779 = weight(_text_:29 in 5400) [ClassicSimilarity], result of:
              0.08796779 = score(doc=5400,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.6218451 = fieldWeight in 5400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5400)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    CRI bulletin. 29(1994), Sept., S.14-15
  10. Hancock-Beaulieu, M.; McKenzie, L.; Irving, A.: Evaluative protocols for searching behaviour in online library catalogues (1991) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 347) [ClassicSimilarity], result of:
              0.076971814 = score(doc=347,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 347, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=347)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    23. 1.1999 19:52:29
  11. Harman, D.K.: ¬The TREC test collections (2005) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 4637) [ClassicSimilarity], result of:
              0.076971814 = score(doc=4637,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 4637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4637)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.1996 18:16:49
  12. Buckley, C.; Voorhees, E.M.: Retrieval system evaluation (2005) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 648) [ClassicSimilarity], result of:
              0.076971814 = score(doc=648,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 648, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=648)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.1996 18:16:49
  13. Voiskunskii, V.G.: Evaluation of search results (2000) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 4670) [ClassicSimilarity], result of:
              0.076971814 = score(doc=4670,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 4670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4670)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Encyclopedia of library and information science. Vol.66, [=Suppl.29]
  14. Harman, D.K.: ¬The TREC ad hoc experiments (2005) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 5711) [ClassicSimilarity], result of:
              0.076971814 = score(doc=5711,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 5711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5711)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.1996 18:16:49
  15. Robertson, S.; Callan, J.: Routing and filtering (2005) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 4688) [ClassicSimilarity], result of:
              0.076971814 = score(doc=4688,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 4688, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4688)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.1996 18:16:49
  16. Beaulieu, M.: Approaches to user-based studies in information seeking and retrieval : a Sheffield perspective (2003) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 4692) [ClassicSimilarity], result of:
              0.076971814 = score(doc=4692,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 4692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4692)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Journal of information science. 29(2003) no.4, S.239-248
  17. Harman, D.K.: Beyond English (2005) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 4850) [ClassicSimilarity], result of:
              0.076971814 = score(doc=4850,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 4850, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4850)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.1996 18:16:49
  18. Voorhees, E.M.; Garofolo, J.S.: Retrieving noisy text (2005) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 5084) [ClassicSimilarity], result of:
              0.076971814 = score(doc=5084,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 5084, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5084)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.1996 18:16:49
  19. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.01
    0.006356617 = product of:
      0.025426468 = sum of:
        0.025426468 = product of:
          0.0762794 = sum of:
            0.0762794 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.0762794 = score(doc=262,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    20.10.2000 12:22:23
  20. Tomaiuolo, N.G.; Parker, J.: Maximizing relevant retrieval : keyword and natural language searching (1998) 0.01
    0.006356617 = product of:
      0.025426468 = sum of:
        0.025426468 = product of:
          0.0762794 = sum of:
            0.0762794 = weight(_text_:22 in 6418) [ClassicSimilarity], result of:
              0.0762794 = score(doc=6418,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5416616 = fieldWeight in 6418, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6418)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Online. 22(1998) no.6, S.57-58

Years

Languages

  • e 71
  • d 10
  • f 1
  • fi 1
  • nl 1
  • More… Less…

Types

  • a 76
  • s 5
  • m 4
  • el 2
  • r 1
  • x 1
  • More… Less…