Search (40 results, page 1 of 2)

  • × theme_ss:"Retrievalstudien"
  1. Wartena, C.; Golub, K.: Evaluierung von Verschlagwortung im Kontext des Information Retrievals (2021) 0.02
    0.024238633 = product of:
      0.15755111 = sum of:
        0.050547596 = weight(_text_:formale in 376) [ClassicSimilarity], result of:
          0.050547596 = score(doc=376,freq=2.0), product of:
            0.14453042 = queryWeight, product of:
              6.330911 = idf(docFreq=213, maxDocs=44218)
              0.022829322 = queryNorm
            0.34973675 = fieldWeight in 376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.330911 = idf(docFreq=213, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
        0.10700352 = weight(_text_:komponente in 376) [ClassicSimilarity], result of:
          0.10700352 = score(doc=376,freq=4.0), product of:
            0.17682779 = queryWeight, product of:
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.022829322 = queryNorm
            0.6051284 = fieldWeight in 376, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
      0.15384616 = coord(2/13)
    
    Abstract
    Dieser Beitrag möchte einen Überblick über die in der Literatur diskutierten Möglichkeiten, Herausforderungen und Grenzen geben, Retrieval als eine extrinsische Evaluierungsmethode für die Ergebnisse verbaler Sacherschließung zu nutzen. Die inhaltliche Erschließung im Allgemeinen und die Verschlagwortung im Besonderen können intrinsisch oder extrinsisch evaluiert werden. Die intrinsische Evaluierung bezieht sich auf Eigenschaften der Erschließung, von denen vermutet wird, dass sie geeignete Indikatoren für die Qualität der Erschließung sind, wie formale Einheitlichkeit (im Hinblick auf die Anzahl zugewiesener Deskriptoren pro Dokument, auf die Granularität usw.), Konsistenz oder Übereinstimmung der Ergebnisse verschiedener Erschließer:innen. Bei einer extrinsischen Evaluierung geht es darum, die Qualität der gewählten Deskriptoren daran zu messen, wie gut sie sich tatsächlich bei der Suche bewähren. Obwohl die extrinsische Evaluierung direktere Auskunft darüber gibt, ob die Erschließung ihren Zweck erfüllt, und daher den Vorzug verdienen sollte, ist sie kompliziert und oft problematisch. In einem Retrievalsystem greifen verschiedene Algorithmen und Datenquellen in vielschichtiger Weise ineinander und interagieren bei der Evaluierung darüber hinaus noch mit Nutzer:innen und Rechercheaufgaben. Die Evaluierung einer Komponente im System kann nicht einfach dadurch vorgenommen werden, dass man sie austauscht und mit einer anderen Komponente vergleicht, da die gleiche Ressource oder der gleiche Algorithmus sich in unterschiedlichen Umgebungen unterschiedlich verhalten kann. Wir werden relevante Evaluierungsansätze vorstellen und diskutieren, und zum Abschluss einige Empfehlungen für die Evaluierung von Verschlagwortung im Kontext von Retrieval geben.
  2. Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998) 0.01
    0.0081483135 = product of:
      0.10592807 = sum of:
        0.10592807 = weight(_text_:komponente in 3577) [ClassicSimilarity], result of:
          0.10592807 = score(doc=3577,freq=2.0), product of:
            0.17682779 = queryWeight, product of:
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.022829322 = queryNorm
            0.5990465 = fieldWeight in 3577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
      0.07692308 = coord(1/13)
    
    Abstract
    Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
  3. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.01
    0.0057617277 = product of:
      0.07490246 = sum of:
        0.07490246 = weight(_text_:komponente in 494) [ClassicSimilarity], result of:
          0.07490246 = score(doc=494,freq=4.0), product of:
            0.17682779 = queryWeight, product of:
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.022829322 = queryNorm
            0.4235899 = fieldWeight in 494, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.07692308 = coord(1/13)
    
    Abstract
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
  4. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.00
    0.0046561793 = product of:
      0.060530327 = sum of:
        0.060530327 = weight(_text_:komponente in 2919) [ClassicSimilarity], result of:
          0.060530327 = score(doc=2919,freq=2.0), product of:
            0.17682779 = queryWeight, product of:
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.022829322 = queryNorm
            0.3423123 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7456436 = idf(docFreq=51, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.07692308 = coord(1/13)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
  5. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.0011103286 = product of:
      0.014434271 = sum of:
        0.014434271 = product of:
          0.04330281 = sum of:
            0.04330281 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.04330281 = score(doc=262,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    20.10.2000 12:22:23
  6. Tomaiuolo, N.G.; Parker, J.: Maximizing relevant retrieval : keyword and natural language searching (1998) 0.00
    0.0011103286 = product of:
      0.014434271 = sum of:
        0.014434271 = product of:
          0.04330281 = sum of:
            0.04330281 = weight(_text_:22 in 6418) [ClassicSimilarity], result of:
              0.04330281 = score(doc=6418,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.5416616 = fieldWeight in 6418, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6418)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Source
    Online. 22(1998) no.6, S.57-58
  7. Voorhees, E.M.; Harman, D.: Overview of the Sixth Text REtrieval Conference (TREC-6) (2000) 0.00
    0.0011103286 = product of:
      0.014434271 = sum of:
        0.014434271 = product of:
          0.04330281 = sum of:
            0.04330281 = weight(_text_:22 in 6438) [ClassicSimilarity], result of:
              0.04330281 = score(doc=6438,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.5416616 = fieldWeight in 6438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6438)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    11. 8.2001 16:22:19
  8. Dalrymple, P.W.: Retrieval by reformulation in two library catalogs : toward a cognitive model of searching behavior (1990) 0.00
    0.0011103286 = product of:
      0.014434271 = sum of:
        0.014434271 = product of:
          0.04330281 = sum of:
            0.04330281 = weight(_text_:22 in 5089) [ClassicSimilarity], result of:
              0.04330281 = score(doc=5089,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.5416616 = fieldWeight in 5089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5089)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    22. 7.2006 18:43:54
  9. Allan, J.; Callan, J.P.; Croft, W.B.; Ballesteros, L.; Broglio, J.; Xu, J.; Shu, H.: INQUERY at TREC-5 (1997) 0.00
    7.9309184E-4 = product of:
      0.0103101935 = sum of:
        0.0103101935 = product of:
          0.03093058 = sum of:
            0.03093058 = weight(_text_:22 in 3103) [ClassicSimilarity], result of:
              0.03093058 = score(doc=3103,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.38690117 = fieldWeight in 3103, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3103)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    27. 2.1999 20:55:22
  10. Ng, K.B.; Loewenstern, D.; Basu, C.; Hirsh, H.; Kantor, P.B.: Data fusion of machine-learning methods for the TREC5 routing tak (and other work) (1997) 0.00
    7.9309184E-4 = product of:
      0.0103101935 = sum of:
        0.0103101935 = product of:
          0.03093058 = sum of:
            0.03093058 = weight(_text_:22 in 3107) [ClassicSimilarity], result of:
              0.03093058 = score(doc=3107,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.38690117 = fieldWeight in 3107, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3107)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    27. 2.1999 20:59:22
  11. Saracevic, T.: On a method for studying the structure and nature of requests in information retrieval (1983) 0.00
    7.9309184E-4 = product of:
      0.0103101935 = sum of:
        0.0103101935 = product of:
          0.03093058 = sum of:
            0.03093058 = weight(_text_:22 in 2417) [ClassicSimilarity], result of:
              0.03093058 = score(doc=2417,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.38690117 = fieldWeight in 2417, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2417)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Pages
    S.22-25
  12. Rijsbergen, C.J. van: ¬A test for the separation of relevant and non-relevant documents in experimental retrieval collections (1973) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 5002) [ClassicSimilarity], result of:
              0.024744464 = score(doc=5002,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 5002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5002)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    19. 3.1996 11:22:12
  13. Sanderson, M.: ¬The Reuters test collection (1996) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 6971) [ClassicSimilarity], result of:
              0.024744464 = score(doc=6971,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 6971, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6971)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  14. Lespinasse, K.: TREC: une conference pour l'evaluation des systemes de recherche d'information (1997) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 744) [ClassicSimilarity], result of:
              0.024744464 = score(doc=744,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=744)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    1. 8.1996 22:01:00
  15. ¬The Fifth Text Retrieval Conference (TREC-5) (1997) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 3087) [ClassicSimilarity], result of:
              0.024744464 = score(doc=3087,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 3087, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3087)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Abstract
    Proceedings of the 5th TREC-confrerence held in Gaithersburgh, Maryland, Nov 20-22, 1996. Aim of the conference was discussion on retrieval techniques for large test collections. Different research groups used different techniques, such as automated thesauri, term weighting, natural language techniques, relevance feedback and advanced pattern matching, for information retrieval from the same large database. This procedure makes it possible to compare the results. The proceedings include papers, tables of the system results, and brief system descriptions including timing and storage information
  16. Pemberton, J.K.; Ojala, M.; Garman, N.: Head to head : searching the Web versus traditional services (1998) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 3572) [ClassicSimilarity], result of:
              0.024744464 = score(doc=3572,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 3572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3572)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Source
    Online. 22(1998) no.3, S.24-26,28
  17. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.024744464 = score(doc=261,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
  18. Ellis, D.: Progress and problems in information retrieval (1996) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 789) [ClassicSimilarity], result of:
              0.024744464 = score(doc=789,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=789)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Date
    26. 7.2002 20:22:46
  19. ¬The Eleventh Text Retrieval Conference, TREC 2002 (2003) 0.00
    6.3447346E-4 = product of:
      0.008248155 = sum of:
        0.008248155 = product of:
          0.024744464 = sum of:
            0.024744464 = weight(_text_:22 in 4049) [ClassicSimilarity], result of:
              0.024744464 = score(doc=4049,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.30952093 = fieldWeight in 4049, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4049)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Abstract
    Proceedings of the llth TREC-conference held in Gaithersburg, Maryland (USA), November 19-22, 2002. Aim of the conference was discussion an retrieval and related information-seeking tasks for large test collection. 93 research groups used different techniques, for information retrieval from the same large database. This procedure makes it possible to compare the results. The tasks are: Cross-language searching, filtering, interactive searching, searching for novelty, question answering, searching for video shots, and Web searching.
  20. Blagden, J.F.: How much noise in a role-free and link-free co-ordinate indexing system? (1966) 0.00
    5.551643E-4 = product of:
      0.0072171353 = sum of:
        0.0072171353 = product of:
          0.021651406 = sum of:
            0.021651406 = weight(_text_:22 in 2718) [ClassicSimilarity], result of:
              0.021651406 = score(doc=2718,freq=2.0), product of:
                0.079944395 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022829322 = queryNorm
                0.2708308 = fieldWeight in 2718, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2718)
          0.33333334 = coord(1/3)
      0.07692308 = coord(1/13)
    
    Source
    Journal of documentation. 22(1966), S.203-209

Languages

  • e 31
  • d 7
  • f 1
  • More… Less…

Types

  • a 34
  • m 3
  • s 3
  • r 1
  • More… Less…