Search (83 results, page 1 of 5)

  • × theme_ss:"Retrievalstudien"
  1. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.01
    0.011589247 = product of:
      0.06953548 = sum of:
        0.06953548 = weight(_text_:gestaltung in 479) [ClassicSimilarity], result of:
          0.06953548 = score(doc=479,freq=2.0), product of:
            0.21578456 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.03699213 = queryNorm
            0.3222449 = fieldWeight in 479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.16666667 = coord(1/6)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
  2. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.01
    0.009271397 = product of:
      0.05562838 = sum of:
        0.05562838 = weight(_text_:gestaltung in 2919) [ClassicSimilarity], result of:
          0.05562838 = score(doc=2919,freq=2.0), product of:
            0.21578456 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.03699213 = queryNorm
            0.25779593 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.16666667 = coord(1/6)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
  3. Rijsbergen, C.J. van: ¬A test for the separation of relevant and non-relevant documents in experimental retrieval collections (1973) 0.01
    0.008950526 = product of:
      0.05370315 = sum of:
        0.05370315 = product of:
          0.080554724 = sum of:
            0.040459342 = weight(_text_:29 in 5002) [ClassicSimilarity], result of:
              0.040459342 = score(doc=5002,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.31092256 = fieldWeight in 5002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5002)
            0.04009538 = weight(_text_:22 in 5002) [ClassicSimilarity], result of:
              0.04009538 = score(doc=5002,freq=2.0), product of:
                0.12954013 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03699213 = queryNorm
                0.30952093 = fieldWeight in 5002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5002)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    19. 3.1996 11:22:12
    Source
    Journal of documentation. 29(1973) no.3, S.251-257
  4. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.01
    0.0065558683 = product of:
      0.03933521 = sum of:
        0.03933521 = weight(_text_:gestaltung in 5973) [ClassicSimilarity], result of:
          0.03933521 = score(doc=5973,freq=4.0), product of:
            0.21578456 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.03699213 = queryNorm
            0.18228926 = fieldWeight in 5973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.16666667 = coord(1/6)
    
    Footnote
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
  5. Chu, H.: Factors affecting relevance judgment : a report from TREC Legal track (2011) 0.01
    0.0055940785 = product of:
      0.03356447 = sum of:
        0.03356447 = product of:
          0.050346702 = sum of:
            0.02528709 = weight(_text_:29 in 4540) [ClassicSimilarity], result of:
              0.02528709 = score(doc=4540,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.19432661 = fieldWeight in 4540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4540)
            0.025059614 = weight(_text_:22 in 4540) [ClassicSimilarity], result of:
              0.025059614 = score(doc=4540,freq=2.0), product of:
                0.12954013 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03699213 = queryNorm
                0.19345059 = fieldWeight in 4540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4540)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    12. 7.2011 18:29:22
  6. Hofstede, M.: Literatuur over onderwerpen zoeken in de OPC (1994) 0.00
    0.004495483 = product of:
      0.026972895 = sum of:
        0.026972895 = product of:
          0.080918685 = sum of:
            0.080918685 = weight(_text_:29 in 5400) [ClassicSimilarity], result of:
              0.080918685 = score(doc=5400,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.6218451 = fieldWeight in 5400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5400)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    CRI bulletin. 29(1994), Sept., S.14-15
  7. Hancock-Beaulieu, M.; McKenzie, L.; Irving, A.: Evaluative protocols for searching behaviour in online library catalogues (1991) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 347) [ClassicSimilarity], result of:
              0.07080384 = score(doc=347,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 347, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=347)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    23. 1.1999 19:52:29
  8. Harman, D.K.: ¬The TREC test collections (2005) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 4637) [ClassicSimilarity], result of:
              0.07080384 = score(doc=4637,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 4637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4637)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49
  9. Buckley, C.; Voorhees, E.M.: Retrieval system evaluation (2005) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 648) [ClassicSimilarity], result of:
              0.07080384 = score(doc=648,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 648, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=648)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49
  10. Voiskunskii, V.G.: Evaluation of search results (2000) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 4670) [ClassicSimilarity], result of:
              0.07080384 = score(doc=4670,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 4670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4670)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Encyclopedia of library and information science. Vol.66, [=Suppl.29]
  11. Harman, D.K.: ¬The TREC ad hoc experiments (2005) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 5711) [ClassicSimilarity], result of:
              0.07080384 = score(doc=5711,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 5711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5711)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49
  12. Robertson, S.; Callan, J.: Routing and filtering (2005) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 4688) [ClassicSimilarity], result of:
              0.07080384 = score(doc=4688,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 4688, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4688)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49
  13. Beaulieu, M.: Approaches to user-based studies in information seeking and retrieval : a Sheffield perspective (2003) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 4692) [ClassicSimilarity], result of:
              0.07080384 = score(doc=4692,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 4692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4692)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Journal of information science. 29(2003) no.4, S.239-248
  14. Harman, D.K.: Beyond English (2005) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 4850) [ClassicSimilarity], result of:
              0.07080384 = score(doc=4850,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 4850, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4850)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49
  15. Voorhees, E.M.; Garofolo, J.S.: Retrieving noisy text (2005) 0.00
    0.003933547 = product of:
      0.023601282 = sum of:
        0.023601282 = product of:
          0.07080384 = sum of:
            0.07080384 = weight(_text_:29 in 5084) [ClassicSimilarity], result of:
              0.07080384 = score(doc=5084,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5441145 = fieldWeight in 5084, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5084)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49
  16. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.0038981622 = product of:
      0.023388973 = sum of:
        0.023388973 = product of:
          0.070166916 = sum of:
            0.070166916 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.070166916 = score(doc=262,freq=2.0), product of:
                0.12954013 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    20.10.2000 12:22:23
  17. Tomaiuolo, N.G.; Parker, J.: Maximizing relevant retrieval : keyword and natural language searching (1998) 0.00
    0.0038981622 = product of:
      0.023388973 = sum of:
        0.023388973 = product of:
          0.070166916 = sum of:
            0.070166916 = weight(_text_:22 in 6418) [ClassicSimilarity], result of:
              0.070166916 = score(doc=6418,freq=2.0), product of:
                0.12954013 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5416616 = fieldWeight in 6418, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6418)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Online. 22(1998) no.6, S.57-58
  18. Voorhees, E.M.; Harman, D.: Overview of the Sixth Text REtrieval Conference (TREC-6) (2000) 0.00
    0.0038981622 = product of:
      0.023388973 = sum of:
        0.023388973 = product of:
          0.070166916 = sum of:
            0.070166916 = weight(_text_:22 in 6438) [ClassicSimilarity], result of:
              0.070166916 = score(doc=6438,freq=2.0), product of:
                0.12954013 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5416616 = fieldWeight in 6438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6438)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    11. 8.2001 16:22:19
  19. Dalrymple, P.W.: Retrieval by reformulation in two library catalogs : toward a cognitive model of searching behavior (1990) 0.00
    0.0038981622 = product of:
      0.023388973 = sum of:
        0.023388973 = product of:
          0.070166916 = sum of:
            0.070166916 = weight(_text_:22 in 5089) [ClassicSimilarity], result of:
              0.070166916 = score(doc=5089,freq=2.0), product of:
                0.12954013 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03699213 = queryNorm
                0.5416616 = fieldWeight in 5089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5089)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 7.2006 18:43:54
  20. Voorhees, E.M.: Question answering in TREC (2005) 0.00
    0.003371612 = product of:
      0.020229671 = sum of:
        0.020229671 = product of:
          0.06068901 = sum of:
            0.06068901 = weight(_text_:29 in 6487) [ClassicSimilarity], result of:
              0.06068901 = score(doc=6487,freq=2.0), product of:
                0.13012674 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03699213 = queryNorm
                0.46638384 = fieldWeight in 6487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6487)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 18:16:49

Years

Languages

  • e 71
  • d 7
  • f 1
  • fi 1
  • m 1
  • nl 1
  • More… Less…

Types

  • a 74
  • s 6
  • m 4
  • el 2
  • r 1
  • x 1
  • More… Less…