Search (39 results, page 1 of 2)

  • × theme_ss:"Retrievalstudien"
  • × type_ss:"a"
  1. Kluck, M.: ¬Eine deutschsprachige Testdatenbank für moderne Erschließungs- und Retrievalsysteme : German Indexing and Retrieval Testdatabase - GIRT (1996) 0.01
    0.013266744 = product of:
      0.07960046 = sum of:
        0.07960046 = weight(_text_:neue in 5269) [ClassicSimilarity], result of:
          0.07960046 = score(doc=5269,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.5401707 = fieldWeight in 5269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.09375 = fieldNorm(doc=5269)
      0.16666667 = coord(1/6)
    
    Source
    Die digitale Revolution: Deutscher Dokumentartag 1996, Neue Universität Heidelberg, 24.-26.9.1996. Hrsg.: W. Neubauer
  2. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.01
    0.008844496 = product of:
      0.053066973 = sum of:
        0.053066973 = weight(_text_:neue in 5975) [ClassicSimilarity], result of:
          0.053066973 = score(doc=5975,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.36011383 = fieldWeight in 5975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
      0.16666667 = coord(1/6)
    
  3. Mandl, T.: Evaluierung im Information Retrieval : die Hildesheimer Antwort auf aktuelle Herausforderungen der globalisierten Informationsgesellschaft (2010) 0.01
    0.008844496 = product of:
      0.053066973 = sum of:
        0.053066973 = weight(_text_:neue in 4011) [ClassicSimilarity], result of:
          0.053066973 = score(doc=4011,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.36011383 = fieldWeight in 4011, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Forschung zur Evaluierung von Information Retrieval Systemen hat in den letzten Jahren neue Richtungen eingeschlagen und interessante Ergebnisse erzielt. Während früher primär die Überlegenheit einzelner Verfahren in heterogenen Anwendungsszenarien im Fokus stand, gerät zunehmend die Validität der Evaluierungsmethodik ins Zentrum der Aufmerksamkeit. Dieser Artikel fasst die aktuelle Forschung zu innovativen Evaluierungsmaßen und zur Zuverlässigkeit des so genannten Cranfield-Paradigmas zusammen.
  4. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.01
    0.007738934 = product of:
      0.0464336 = sum of:
        0.0464336 = weight(_text_:neue in 266) [ClassicSimilarity], result of:
          0.0464336 = score(doc=266,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.3150996 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
      0.16666667 = coord(1/6)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
  5. Kaltenborn, K.-F.: Endnutzerrecherchen in der CD-ROM-Datenbank Medline : T.1: Evaluations- und Benutzerforschung über Nutzungscharakteristika, Bewertung der Rechercheergebnisse und künftige Informationsgewinnung; T.2: Evaluations- und Benutzerforschung über Recherchequalität und Nutzer-Computer/Datenbank-Interaktion (1991) 0.01
    0.006633372 = product of:
      0.03980023 = sum of:
        0.03980023 = weight(_text_:neue in 5105) [ClassicSimilarity], result of:
          0.03980023 = score(doc=5105,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.27008536 = fieldWeight in 5105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=5105)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Einführung von CD-ROM Datenbanken als neue Informationstechnologie hat die Formen der Informationsgewinnung in bestimmten wissenschaftlichen Fachgebieten grundlegend geändert. Der Beitrag berichtet über Ergebnisse wissenschaftlicher Begleitforschung bei Endnutzerrecherchen in der CD-ROM-Version der Datenbank MEDLINE. Hierzu wurden drei verschiedene Erhebungen durchgeführt. Hiernach ist die überwiegende Zahl der Endnutzer (89,3%) mit dem jeweiligen Rechercheresultat zufrieden, wobei Benutzer mit geringer Rechercheerfahrung eine höhere Zufriedenheitsrate erreichen als Benutzer mit umfangreicheren Recherchekenntnissen. Die Gründe zur Nutzung von CD-ROM-Systemen resultieren voriwegend aus der klinischen Alltagsroutine oder täglichen Forschungspraxis, während vermittelte Online-Literatursuchen tendenziell häufiger im Zusammenhang mit einmaligen Ereignissen der wissenschaftlichen Aus- und Weiterbildung stehen. Die selbständige CD-ROM Literaturrecherche stellt für die befragten Ärzte und Wissenschaftler die bevorzugte Methode der Informationsgewinnung dar. Die analysierten Endnutzerrecherchen weisen allerdings Fehler und Defizite hinsichtlich einer optimalen Suchstrategie auf, die zu unbemerktn Informationsverlusten und zu Fehlbeurteilungen des wissenschaftlichen Kenntnisstandes führen
  6. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.006633372 = product of:
      0.03980023 = sum of:
        0.03980023 = weight(_text_:neue in 6386) [ClassicSimilarity], result of:
          0.03980023 = score(doc=6386,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.27008536 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.16666667 = coord(1/6)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  7. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.00552781 = product of:
      0.03316686 = sum of:
        0.03316686 = weight(_text_:neue in 5863) [ClassicSimilarity], result of:
          0.03316686 = score(doc=5863,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.22507115 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.16666667 = coord(1/6)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  8. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.0038114511 = product of:
      0.022868706 = sum of:
        0.022868706 = product of:
          0.068606116 = sum of:
            0.068606116 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.068606116 = score(doc=262,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    20.10.2000 12:22:23
  9. Tomaiuolo, N.G.; Parker, J.: Maximizing relevant retrieval : keyword and natural language searching (1998) 0.00
    0.0038114511 = product of:
      0.022868706 = sum of:
        0.022868706 = product of:
          0.068606116 = sum of:
            0.068606116 = weight(_text_:22 in 6418) [ClassicSimilarity], result of:
              0.068606116 = score(doc=6418,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.5416616 = fieldWeight in 6418, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6418)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Online. 22(1998) no.6, S.57-58
  10. Voorhees, E.M.; Harman, D.: Overview of the Sixth Text REtrieval Conference (TREC-6) (2000) 0.00
    0.0038114511 = product of:
      0.022868706 = sum of:
        0.022868706 = product of:
          0.068606116 = sum of:
            0.068606116 = weight(_text_:22 in 6438) [ClassicSimilarity], result of:
              0.068606116 = score(doc=6438,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.5416616 = fieldWeight in 6438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6438)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    11. 8.2001 16:22:19
  11. Dalrymple, P.W.: Retrieval by reformulation in two library catalogs : toward a cognitive model of searching behavior (1990) 0.00
    0.0038114511 = product of:
      0.022868706 = sum of:
        0.022868706 = product of:
          0.068606116 = sum of:
            0.068606116 = weight(_text_:22 in 5089) [ClassicSimilarity], result of:
              0.068606116 = score(doc=5089,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.5416616 = fieldWeight in 5089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5089)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 7.2006 18:43:54
  12. Allan, J.; Callan, J.P.; Croft, W.B.; Ballesteros, L.; Broglio, J.; Xu, J.; Shu, H.: INQUERY at TREC-5 (1997) 0.00
    0.0027224652 = product of:
      0.01633479 = sum of:
        0.01633479 = product of:
          0.04900437 = sum of:
            0.04900437 = weight(_text_:22 in 3103) [ClassicSimilarity], result of:
              0.04900437 = score(doc=3103,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.38690117 = fieldWeight in 3103, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3103)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    27. 2.1999 20:55:22
  13. Ng, K.B.; Loewenstern, D.; Basu, C.; Hirsh, H.; Kantor, P.B.: Data fusion of machine-learning methods for the TREC5 routing tak (and other work) (1997) 0.00
    0.0027224652 = product of:
      0.01633479 = sum of:
        0.01633479 = product of:
          0.04900437 = sum of:
            0.04900437 = weight(_text_:22 in 3107) [ClassicSimilarity], result of:
              0.04900437 = score(doc=3107,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.38690117 = fieldWeight in 3107, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3107)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    27. 2.1999 20:59:22
  14. Saracevic, T.: On a method for studying the structure and nature of requests in information retrieval (1983) 0.00
    0.0027224652 = product of:
      0.01633479 = sum of:
        0.01633479 = product of:
          0.04900437 = sum of:
            0.04900437 = weight(_text_:22 in 2417) [ClassicSimilarity], result of:
              0.04900437 = score(doc=2417,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.38690117 = fieldWeight in 2417, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2417)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Pages
    S.22-25
  15. Rijsbergen, C.J. van: ¬A test for the separation of relevant and non-relevant documents in experimental retrieval collections (1973) 0.00
    0.002177972 = product of:
      0.013067832 = sum of:
        0.013067832 = product of:
          0.039203495 = sum of:
            0.039203495 = weight(_text_:22 in 5002) [ClassicSimilarity], result of:
              0.039203495 = score(doc=5002,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.30952093 = fieldWeight in 5002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5002)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    19. 3.1996 11:22:12
  16. Sanderson, M.: ¬The Reuters test collection (1996) 0.00
    0.002177972 = product of:
      0.013067832 = sum of:
        0.013067832 = product of:
          0.039203495 = sum of:
            0.039203495 = weight(_text_:22 in 6971) [ClassicSimilarity], result of:
              0.039203495 = score(doc=6971,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.30952093 = fieldWeight in 6971, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6971)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  17. Lespinasse, K.: TREC: une conference pour l'evaluation des systemes de recherche d'information (1997) 0.00
    0.002177972 = product of:
      0.013067832 = sum of:
        0.013067832 = product of:
          0.039203495 = sum of:
            0.039203495 = weight(_text_:22 in 744) [ClassicSimilarity], result of:
              0.039203495 = score(doc=744,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.30952093 = fieldWeight in 744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=744)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 8.1996 22:01:00
  18. Pemberton, J.K.; Ojala, M.; Garman, N.: Head to head : searching the Web versus traditional services (1998) 0.00
    0.002177972 = product of:
      0.013067832 = sum of:
        0.013067832 = product of:
          0.039203495 = sum of:
            0.039203495 = weight(_text_:22 in 3572) [ClassicSimilarity], result of:
              0.039203495 = score(doc=3572,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.30952093 = fieldWeight in 3572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3572)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Online. 22(1998) no.3, S.24-26,28
  19. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.00
    0.002177972 = product of:
      0.013067832 = sum of:
        0.013067832 = product of:
          0.039203495 = sum of:
            0.039203495 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.039203495 = score(doc=261,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
  20. Blagden, J.F.: How much noise in a role-free and link-free co-ordinate indexing system? (1966) 0.00
    0.0019057256 = product of:
      0.011434353 = sum of:
        0.011434353 = product of:
          0.034303058 = sum of:
            0.034303058 = weight(_text_:22 in 2718) [ClassicSimilarity], result of:
              0.034303058 = score(doc=2718,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.2708308 = fieldWeight in 2718, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2718)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Journal of documentation. 22(1966), S.203-209