Search (70 results, page 1 of 4)

  • × theme_ss:"Retrievalstudien"
  1. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.02
    0.018173419 = product of:
      0.12721393 = sum of:
        0.02724764 = weight(_text_:zur in 2653) [ClassicSimilarity], result of:
          0.02724764 = score(doc=2653,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.27215877 = fieldWeight in 2653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.09996629 = weight(_text_:allgemeinen in 2653) [ClassicSimilarity], result of:
          0.09996629 = score(doc=2653,freq=2.0), product of:
            0.1917648 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03251466 = queryNorm
            0.5212963 = fieldWeight in 2653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.14285715 = coord(2/14)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  2. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.01
    0.0062478934 = product of:
      0.0874705 = sum of:
        0.0874705 = weight(_text_:allgemeinen in 4310) [ClassicSimilarity], result of:
          0.0874705 = score(doc=4310,freq=2.0), product of:
            0.1917648 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03251466 = queryNorm
            0.4561343 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
      0.071428575 = coord(1/14)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
  3. Wartena, C.; Golub, K.: Evaluierung von Verschlagwortung im Kontext des Information Retrievals (2021) 0.00
    0.0044627804 = product of:
      0.062478926 = sum of:
        0.062478926 = weight(_text_:allgemeinen in 376) [ClassicSimilarity], result of:
          0.062478926 = score(doc=376,freq=2.0), product of:
            0.1917648 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03251466 = queryNorm
            0.3258102 = fieldWeight in 376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
      0.071428575 = coord(1/14)
    
    Abstract
    Dieser Beitrag möchte einen Überblick über die in der Literatur diskutierten Möglichkeiten, Herausforderungen und Grenzen geben, Retrieval als eine extrinsische Evaluierungsmethode für die Ergebnisse verbaler Sacherschließung zu nutzen. Die inhaltliche Erschließung im Allgemeinen und die Verschlagwortung im Besonderen können intrinsisch oder extrinsisch evaluiert werden. Die intrinsische Evaluierung bezieht sich auf Eigenschaften der Erschließung, von denen vermutet wird, dass sie geeignete Indikatoren für die Qualität der Erschließung sind, wie formale Einheitlichkeit (im Hinblick auf die Anzahl zugewiesener Deskriptoren pro Dokument, auf die Granularität usw.), Konsistenz oder Übereinstimmung der Ergebnisse verschiedener Erschließer:innen. Bei einer extrinsischen Evaluierung geht es darum, die Qualität der gewählten Deskriptoren daran zu messen, wie gut sie sich tatsächlich bei der Suche bewähren. Obwohl die extrinsische Evaluierung direktere Auskunft darüber gibt, ob die Erschließung ihren Zweck erfüllt, und daher den Vorzug verdienen sollte, ist sie kompliziert und oft problematisch. In einem Retrievalsystem greifen verschiedene Algorithmen und Datenquellen in vielschichtiger Weise ineinander und interagieren bei der Evaluierung darüber hinaus noch mit Nutzer:innen und Rechercheaufgaben. Die Evaluierung einer Komponente im System kann nicht einfach dadurch vorgenommen werden, dass man sie austauscht und mit einer anderen Komponente vergleicht, da die gleiche Ressource oder der gleiche Algorithmus sich in unterschiedlichen Umgebungen unterschiedlich verhalten kann. Wir werden relevante Evaluierungsansätze vorstellen und diskutieren, und zum Abschluss einige Empfehlungen für die Evaluierung von Verschlagwortung im Kontext von Retrieval geben.
  4. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.00
    0.003440534 = product of:
      0.048167475 = sum of:
        0.048167475 = weight(_text_:zur in 4040) [ClassicSimilarity], result of:
          0.048167475 = score(doc=4040,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.48111326 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.071428575 = coord(1/14)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
  5. Grunder, R.: Qualitätskriterien für Datenbanken : Grundsätzliche Überlegungen und Untersuchung ausgewählter Aspekte am Beispiel bibliographischer Online-Datenbanken (1995) 0.00
    0.0034059552 = product of:
      0.04768337 = sum of:
        0.04768337 = weight(_text_:zur in 7107) [ClassicSimilarity], result of:
          0.04768337 = score(doc=7107,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.47627786 = fieldWeight in 7107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=7107)
      0.071428575 = coord(1/14)
    
    Footnote
    Hausarbeit zur Prüfung für den höheren Bibliotheksdienst
  6. Bauer, G.; Schneider, C.: PADOK-II : Untersuchungen zur Volltextproblematik und zur interpretativen Analyse der Retrievalprotokolle (1990) 0.00
    0.0033710212 = product of:
      0.047194295 = sum of:
        0.047194295 = weight(_text_:zur in 4164) [ClassicSimilarity], result of:
          0.047194295 = score(doc=4164,freq=6.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.4713928 = fieldWeight in 4164, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0625 = fieldNorm(doc=4164)
      0.071428575 = coord(1/14)
    
    Abstract
    Dieser Beitrag baut auf dem Bericht über das methodische Konzept, über die Durchführung und die Ergebnisse der PADOK-II-Retrievaltests auf (Krause/Wormser-Hacker). Hier werden die Ergebnisse von Zusatztests zum Einfluß des Umfangs der zugrundeliegenden Dokumente (Volltext vs. Titel+Abstract) beschrieben, die eine deutliche Beeinträchtigung der Recall-Werte bei reduziertem Dokumentenumfang zeigen. Zur interpretativen Analyse der Retrievalprotokolle werden vor allem die methodische Einbindung, Ansatzpunkte der Analyse und erste Ergebnisse vorgestelt.
  7. Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998) 0.00
    0.0029496434 = product of:
      0.041295007 = sum of:
        0.041295007 = weight(_text_:zur in 3577) [ClassicSimilarity], result of:
          0.041295007 = score(doc=3577,freq=6.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.4124687 = fieldWeight in 3577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.14
  8. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 1221) [ClassicSimilarity], result of:
          0.04087146 = score(doc=1221,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 1221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=1221)
      0.071428575 = coord(1/14)
    
    Footnote
    Hausarbeit zur Prüfung für den höheren Bibliotheksdienst
  9. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.00
    0.0027524275 = product of:
      0.038533982 = sum of:
        0.038533982 = weight(_text_:zur in 5975) [ClassicSimilarity], result of:
          0.038533982 = score(doc=5975,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.38489062 = fieldWeight in 5975, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
    Series
    Schriften zur Informationswissenschaft; Bd.45
  10. Mandl, T.: Evaluierung im Information Retrieval : die Hildesheimer Antwort auf aktuelle Herausforderungen der globalisierten Informationsgesellschaft (2010) 0.00
    0.0027524275 = product of:
      0.038533982 = sum of:
        0.038533982 = weight(_text_:zur in 4011) [ClassicSimilarity], result of:
          0.038533982 = score(doc=4011,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.38489062 = fieldWeight in 4011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Forschung zur Evaluierung von Information Retrieval Systemen hat in den letzten Jahren neue Richtungen eingeschlagen und interessante Ergebnisse erzielt. Während früher primär die Überlegenheit einzelner Verfahren in heterogenen Anwendungsszenarien im Fokus stand, gerät zunehmend die Validität der Evaluierungsmethodik ins Zentrum der Aufmerksamkeit. Dieser Artikel fasst die aktuelle Forschung zu innovativen Evaluierungsmaßen und zur Zuverlässigkeit des so genannten Cranfield-Paradigmas zusammen.
  11. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.00
    0.0027524275 = product of:
      0.038533982 = sum of:
        0.038533982 = weight(_text_:zur in 3097) [ClassicSimilarity], result of:
          0.038533982 = score(doc=3097,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.38489062 = fieldWeight in 3097, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
      0.071428575 = coord(1/14)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.
  12. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.00
    0.0025282658 = product of:
      0.03539572 = sum of:
        0.03539572 = weight(_text_:zur in 1476) [ClassicSimilarity], result of:
          0.03539572 = score(doc=1476,freq=6.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.3535446 = fieldWeight in 1476, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.071428575 = coord(1/14)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
  13. Bollmann-Sdorra, P.: Probleme der Validität bei Retrievaltests (1990) 0.00
    0.002432825 = product of:
      0.03405955 = sum of:
        0.03405955 = weight(_text_:zur in 5113) [ClassicSimilarity], result of:
          0.03405955 = score(doc=5113,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.34019846 = fieldWeight in 5113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=5113)
      0.071428575 = coord(1/14)
    
    Abstract
    In diesem Beitrag werden beispielhaft Probleme der Validität bei Retrievaltests behandelt. Die externe Validität wird im Zusammenhang von Ähnlichkeitsmaßen und Bewertungsmaßen diskutiert. Die interne Validität wird am Beispiel der Mittelwertbildung diskutiert. Es zeigt sich, daß die Forderung nach Validität die zur Auswahl stehenden Methoden einschränkt
  14. Harman, D.K.: ¬The TREC conferences (1995) 0.00
    0.002432825 = product of:
      0.03405955 = sum of:
        0.03405955 = weight(_text_:zur in 1932) [ClassicSimilarity], result of:
          0.03405955 = score(doc=1932,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.34019846 = fieldWeight in 1932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=1932)
      0.071428575 = coord(1/14)
    
    Series
    Schriften zur Informationswissenschaft; Bd.20
  15. Womser-Hacker, C.: Evaluierung im Information Retrieval (2013) 0.00
    0.002432825 = product of:
      0.03405955 = sum of:
        0.03405955 = weight(_text_:zur in 728) [ClassicSimilarity], result of:
          0.03405955 = score(doc=728,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.34019846 = fieldWeight in 728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=728)
      0.071428575 = coord(1/14)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  16. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.00
    0.0024083739 = product of:
      0.033717234 = sum of:
        0.033717234 = weight(_text_:zur in 266) [ClassicSimilarity], result of:
          0.033717234 = score(doc=266,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.3367793 = fieldWeight in 266, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
      0.071428575 = coord(1/14)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
  17. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.002202644 = product of:
      0.030837014 = sum of:
        0.030837014 = product of:
          0.06167403 = sum of:
            0.06167403 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.06167403 = score(doc=262,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Date
    20.10.2000 12:22:23
  18. Tomaiuolo, N.G.; Parker, J.: Maximizing relevant retrieval : keyword and natural language searching (1998) 0.00
    0.002202644 = product of:
      0.030837014 = sum of:
        0.030837014 = product of:
          0.06167403 = sum of:
            0.06167403 = weight(_text_:22 in 6418) [ClassicSimilarity], result of:
              0.06167403 = score(doc=6418,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.5416616 = fieldWeight in 6418, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6418)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Source
    Online. 22(1998) no.6, S.57-58
  19. Voorhees, E.M.; Harman, D.: Overview of the Sixth Text REtrieval Conference (TREC-6) (2000) 0.00
    0.002202644 = product of:
      0.030837014 = sum of:
        0.030837014 = product of:
          0.06167403 = sum of:
            0.06167403 = weight(_text_:22 in 6438) [ClassicSimilarity], result of:
              0.06167403 = score(doc=6438,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.5416616 = fieldWeight in 6438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6438)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Date
    11. 8.2001 16:22:19
  20. Dalrymple, P.W.: Retrieval by reformulation in two library catalogs : toward a cognitive model of searching behavior (1990) 0.00
    0.002202644 = product of:
      0.030837014 = sum of:
        0.030837014 = product of:
          0.06167403 = sum of:
            0.06167403 = weight(_text_:22 in 5089) [ClassicSimilarity], result of:
              0.06167403 = score(doc=5089,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.5416616 = fieldWeight in 5089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5089)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Date
    22. 7.2006 18:43:54

Languages

  • e 34
  • d 33
  • f 1
  • m 1
  • More… Less…

Types

  • a 56
  • x 5
  • m 4
  • s 4
  • el 3
  • r 3
  • More… Less…