Search (13 results, page 1 of 1)

  • × theme_ss:"Retrievalstudien"
  • × language_ss:"d"
  1. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.03
    0.03105314 = product of:
      0.09315942 = sum of:
        0.08571266 = weight(_text_:suchmaschinen in 261) [ClassicSimilarity], result of:
          0.08571266 = score(doc=261,freq=4.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.5584717 = fieldWeight in 261, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.007446766 = product of:
          0.03723383 = sum of:
            0.03723383 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.03723383 = score(doc=261,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Theme
    Suchmaschinen
  2. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.03
    0.028248008 = product of:
      0.08474402 = sum of:
        0.06561009 = weight(_text_:suchmaschinen in 3068) [ClassicSimilarity], result of:
          0.06561009 = score(doc=3068,freq=6.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.42749083 = fieldWeight in 3068, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.019133935 = product of:
          0.047834836 = sum of:
            0.024352452 = weight(_text_:28 in 3068) [ClassicSimilarity], result of:
              0.024352452 = score(doc=3068,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19789396 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
            0.023482382 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.023482382 = score(doc=3068,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.4 = coord(2/5)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Date
    28. 7.2016 16:03:34
    Source
    Young information scientists. 1(2016), S.13-29
    Theme
    Suchmaschinen
  3. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.02
    0.018557334 = product of:
      0.111344 = sum of:
        0.111344 = weight(_text_:suchmaschinen in 2482) [ClassicSimilarity], result of:
          0.111344 = score(doc=2482,freq=12.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.72547597 = fieldWeight in 2482, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
    Theme
    Suchmaschinen
  4. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.02
    0.017856805 = product of:
      0.107140824 = sum of:
        0.107140824 = weight(_text_:suchmaschinen in 1159) [ClassicSimilarity], result of:
          0.107140824 = score(doc=1159,freq=4.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.6980896 = fieldWeight in 1159, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  5. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.01
    0.010935015 = product of:
      0.06561009 = sum of:
        0.06561009 = weight(_text_:suchmaschinen in 479) [ClassicSimilarity], result of:
          0.06561009 = score(doc=479,freq=6.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.42749083 = fieldWeight in 479, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.16666667 = coord(1/6)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
  6. Heinz, M.; Voigt, H.: Aufbau einer Suchmaschine für ein Forschungsinstitut : Aufgabe für die Bibliothek? (2000) 0.01
    0.010101333 = product of:
      0.060608 = sum of:
        0.060608 = weight(_text_:suchmaschinen in 5234) [ClassicSimilarity], result of:
          0.060608 = score(doc=5234,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3948991 = fieldWeight in 5234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0625 = fieldNorm(doc=5234)
      0.16666667 = coord(1/6)
    
    Abstract
    Anhand eines einfachen Modells wird geprüft, ob der Nutzen den Aufbau einer Spezialsuchmaschine trägt. Zum Vergleich werden fünf große Suchmaschinen herangezogen und deren Ergebnisse bei gleichen Fragestellungen analysiert. Es ergeben sich gravierende Abweichungen sowohl in der Überdeckung der Ergebnismengen als auch im Ranking. Es erscheint also sinnvoll, eine eigene Suchmaschine zu betreiben
  7. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.01
    0.010101333 = product of:
      0.060608 = sum of:
        0.060608 = weight(_text_:suchmaschinen in 3275) [ClassicSimilarity], result of:
          0.060608 = score(doc=3275,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3948991 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  8. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.01
    0.00988193 = product of:
      0.059291583 = sum of:
        0.059291583 = weight(_text_:suchmaschinen in 4416) [ClassicSimilarity], result of:
          0.059291583 = score(doc=4416,freq=10.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3863218 = fieldWeight in 4416, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.16666667 = coord(1/6)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  9. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.01
    0.0050506666 = product of:
      0.030304 = sum of:
        0.030304 = weight(_text_:suchmaschinen in 2919) [ClassicSimilarity], result of:
          0.030304 = score(doc=2919,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.19744955 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.16666667 = coord(1/6)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
  10. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.0021719735 = product of:
      0.01303184 = sum of:
        0.01303184 = product of:
          0.0651592 = sum of:
            0.0651592 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.0651592 = score(doc=262,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    20.10.2000 12:22:23
  11. Kluck, M.: ¬Eine deutschsprachige Testdatenbank für moderne Erschließungs- und Retrievalsysteme : German Indexing and Retrieval Testdatabase - GIRT (1996) 0.00
    0.001948196 = product of:
      0.011689176 = sum of:
        0.011689176 = product of:
          0.05844588 = sum of:
            0.05844588 = weight(_text_:28 in 5269) [ClassicSimilarity], result of:
              0.05844588 = score(doc=5269,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.4749455 = fieldWeight in 5269, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5269)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    28. 9.1996 20:12:47
  12. Womser-Hacker, C.: Evaluierung im Information Retrieval (2013) 0.00
    0.0015654922 = product of:
      0.0093929535 = sum of:
        0.0093929535 = product of:
          0.046964765 = sum of:
            0.046964765 = weight(_text_:29 in 728) [ClassicSimilarity], result of:
              0.046964765 = score(doc=728,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.38865322 = fieldWeight in 728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=728)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    5. 4.2013 13:53:29
  13. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.00
    9.308457E-4 = product of:
      0.005585074 = sum of:
        0.005585074 = product of:
          0.02792537 = sum of:
            0.02792537 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
              0.02792537 = score(doc=328,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23214069 = fieldWeight in 328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=328)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    22. 7.2012 19:25:54