Search (100 results, page 1 of 5)

  • × theme_ss:"Retrievalstudien"
  1. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.07
    0.07212053 = product of:
      0.1081808 = sum of:
        0.08438047 = weight(_text_:g in 6386) [ClassicSimilarity], result of:
          0.08438047 = score(doc=6386,freq=8.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.023800327 = product of:
          0.047600653 = sum of:
            0.047600653 = weight(_text_:von in 6386) [ClassicSimilarity], result of:
              0.047600653 = score(doc=6386,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.39547473 = fieldWeight in 6386, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  2. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.06
    0.060100447 = product of:
      0.09015067 = sum of:
        0.07031707 = weight(_text_:g in 5863) [ClassicSimilarity], result of:
          0.07031707 = score(doc=5863,freq=8.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.019833606 = product of:
          0.03966721 = sum of:
            0.03966721 = weight(_text_:von in 5863) [ClassicSimilarity], result of:
              0.03966721 = score(doc=5863,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.32956228 = fieldWeight in 5863, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  3. Bauer, G.; Schneider, C.: PADOK-II : Untersuchungen zur Volltextproblematik und zur interpretativen Analyse der Retrievalprotokolle (1990) 0.05
    0.046963613 = product of:
      0.07044542 = sum of:
        0.05625365 = weight(_text_:g in 4164) [ClassicSimilarity], result of:
          0.05625365 = score(doc=4164,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 4164, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=4164)
        0.014191773 = product of:
          0.028383546 = sum of:
            0.028383546 = weight(_text_:von in 4164) [ClassicSimilarity], result of:
              0.028383546 = score(doc=4164,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.23581557 = fieldWeight in 4164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4164)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Dieser Beitrag baut auf dem Bericht über das methodische Konzept, über die Durchführung und die Ergebnisse der PADOK-II-Retrievaltests auf (Krause/Wormser-Hacker). Hier werden die Ergebnisse von Zusatztests zum Einfluß des Umfangs der zugrundeliegenden Dokumente (Volltext vs. Titel+Abstract) beschrieben, die eine deutliche Beeinträchtigung der Recall-Werte bei reduziertem Dokumentenumfang zeigen. Zur interpretativen Analyse der Retrievalprotokolle werden vor allem die methodische Einbindung, Ansatzpunkte der Analyse und erste Ergebnisse vorgestelt.
  4. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.04
    0.041093163 = product of:
      0.061639745 = sum of:
        0.049221944 = weight(_text_:g in 4885) [ClassicSimilarity], result of:
          0.049221944 = score(doc=4885,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.29048425 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
        0.012417802 = product of:
          0.024835603 = sum of:
            0.024835603 = weight(_text_:von in 4885) [ClassicSimilarity], result of:
              0.024835603 = score(doc=4885,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.20633863 = fieldWeight in 4885, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4885)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In einem Benutzertest, der im Rahmen der Projektes GIRT stattfand, wurde die Leistungsfähigkeit zweier Retrievalsprachen für die Datenbankrecherche überprüft. Die Ergebnisse werden in diesem Bericht dargestellt: Das System FULCRUM beruht auf automatischer Indexierung und liefert ein nach statistischer Relevanz sortiertes Suchergebnis. Die Standardfreitextsuche des Systems MESSENGER wurde um die intellektuell vom IZ vergebenen Deskriptoren ergänzt. Die Ergebnisse zeigen, dass in FULCRUM das Boole'sche Exakt-Match-Retrieval dem Verktos-Space-Modell (Best-Match-Verfahren) von den Versuchspersonen vorgezogen wurde. Die in MESSENGER realisierte Mischform aus intellektueller und automatischer Indexierung erwies sich gegenüber dem quantitativ-statistischen Ansatz beim Recall als überlegen
  5. Wood, F.; Ford, N.; Miller, D.; Sobczyk, G.; Duffin, R.: Information skills, searching behaviour and cognitive styles for student-centred learning : a computer-assisted learning approach (1996) 0.04
    0.040351626 = product of:
      0.060527436 = sum of:
        0.042190235 = weight(_text_:g in 4341) [ClassicSimilarity], result of:
          0.042190235 = score(doc=4341,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.24898648 = fieldWeight in 4341, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=4341)
        0.0183372 = product of:
          0.0366744 = sum of:
            0.0366744 = weight(_text_:22 in 4341) [ClassicSimilarity], result of:
              0.0366744 = score(doc=4341,freq=2.0), product of:
                0.1579835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04511456 = queryNorm
                0.23214069 = fieldWeight in 4341, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4341)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Journal of information science. 22(1996) no.2, S.79-92
  6. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.04
    0.0352221 = product of:
      0.105666295 = sum of:
        0.105666295 = sum of:
          0.05676709 = weight(_text_:von in 261) [ClassicSimilarity], result of:
            0.05676709 = score(doc=261,freq=8.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.47163114 = fieldWeight in 261, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0625 = fieldNorm(doc=261)
          0.0488992 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
            0.0488992 = score(doc=261,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.30952093 = fieldWeight in 261, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=261)
      0.33333334 = coord(1/3)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
  7. Salton, G.: ¬The Smart environment for retrieval systeme valuation : advantages and problem areas (1981) 0.03
    0.03281463 = product of:
      0.09844389 = sum of:
        0.09844389 = weight(_text_:g in 3159) [ClassicSimilarity], result of:
          0.09844389 = score(doc=3159,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.5809685 = fieldWeight in 3159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.109375 = fieldNorm(doc=3159)
      0.33333334 = coord(1/3)
    
  8. Salton, G.; Lesk, M.E.: Computer evaluation of indexing and text processing (1968) 0.03
    0.028126825 = product of:
      0.08438047 = sum of:
        0.08438047 = weight(_text_:g in 77) [ClassicSimilarity], result of:
          0.08438047 = score(doc=77,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 77, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=77)
      0.33333334 = coord(1/3)
    
  9. Buckley, C.; Singhal, A.; Mitra, M.; Salton, G.: New retrieval approaches using SMART : TREC 4 (1996) 0.03
    0.028126825 = product of:
      0.08438047 = sum of:
        0.08438047 = weight(_text_:g in 7528) [ClassicSimilarity], result of:
          0.08438047 = score(doc=7528,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 7528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=7528)
      0.33333334 = coord(1/3)
    
  10. Sheridan, P.; Ballerini, J.P.; Schäuble, P.: Building a large multilingual test collection from comparable news documents (1998) 0.03
    0.028126825 = product of:
      0.08438047 = sum of:
        0.08438047 = weight(_text_:g in 6298) [ClassicSimilarity], result of:
          0.08438047 = score(doc=6298,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 6298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=6298)
      0.33333334 = coord(1/3)
    
    Source
    Cross-language information retrieval. Ed.: G. Grefenstette
  11. Davis, M.W.: On the effective use of large parallel corpora in cross-language text retrieval (1998) 0.03
    0.028126825 = product of:
      0.08438047 = sum of:
        0.08438047 = weight(_text_:g in 6302) [ClassicSimilarity], result of:
          0.08438047 = score(doc=6302,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 6302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=6302)
      0.33333334 = coord(1/3)
    
    Source
    Cross-language information retrieval. Ed.: G. Grefenstette
  12. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.03
    0.026416574 = product of:
      0.07924972 = sum of:
        0.07924972 = sum of:
          0.04257532 = weight(_text_:von in 328) [ClassicSimilarity], result of:
            0.04257532 = score(doc=328,freq=8.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.35372335 = fieldWeight in 328, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.046875 = fieldNorm(doc=328)
          0.0366744 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
            0.0366744 = score(doc=328,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.23214069 = fieldWeight in 328, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=328)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Artikel wird ein Eyetracking-Experiment beschrieben, bei dem untersucht wurde, wann und auf Basis welcher Informationen Relevanzentscheidungen bei der themenbezogenen Dokumentenbewertung fallen und welche Faktoren auf die Relevanzentscheidung einwirken. Nach einer kurzen Einführung werden relevante Studien aufgeführt, in denen Eyetracking als Untersuchungsmethode für Interaktionsverhalten mit Ergebnislisten (Information Seeking Behavior) verwendet wurde. Nutzerverhalten wird hierbei vor allem durch unterschiedliche Aufgaben-Typen, dargestellte Informationen und durch das Ranking eines Ergebnisses beeinflusst. Durch EyetrackingUntersuchungen lassen sich Nutzer außerdem in verschiedene Klassen von Bewertungs- und Lesetypen einordnen. Diese Informationen können als implizites Feedback genutzt werden, um so die Suche zu personalisieren und um die Relevanz von Suchergebnissen ohne aktives Zutun des Users zu erhöhen. In einem explorativen Eyetracking-Experiment mit 12 Studenten der Hochschule Darmstadt werden anhand der Länge der Gesamtbewertung, Anzahl der Fixationen, Anzahl der besuchten Metadatenelemente und Länge des Scanpfades zwei typische Bewertungstypen identifiziert. Das Metadatenfeld Abstract wird im Experiment zuverlässig als wichtigste Dokumenteigenschaft für die Zuordnung von Relevanz ermittelt.
    Date
    22. 7.2012 19:25:54
  13. Blair, D.C.; Maron, M.E.: ¬An evaluation of retrieval effectiveness for a full-text document-retrieval system (1985) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 1345) [ClassicSimilarity], result of:
          0.07031707 = score(doc=1345,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 1345, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=1345)
      0.33333334 = coord(1/3)
    
    Footnote
    Vgl. auch : Salton, G.: Another look ... Comm. ACM 29(1986) S.S.648-656; Blair, D.C.: Full text retrieval ... Int. Class. 13(1986) S.18-23: Blair, D.C., M.E. Maron: Full-text information retrieval ... Inf. proc. man. 26(1990) S.437-447.
  14. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 4040) [ClassicSimilarity], result of:
          0.07031707 = score(doc=4040,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.33333334 = coord(1/3)
    
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  15. Hull, D.; Grefenstette, G.; Schulze, B.M.; Gaussier, E.; Schütze, H.; Pedersen, J.: Xerox TREC-5 site reports : routing, filtering, NLP, and Spanisch tracks (1997) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 3096) [ClassicSimilarity], result of:
          0.07031707 = score(doc=3096,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 3096, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=3096)
      0.33333334 = coord(1/3)
    
  16. Kazai, G.; Lalmas, M.: ¬The overlap problem in content-oriented XML retrieval evaluation (2004) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 4083) [ClassicSimilarity], result of:
          0.07031707 = score(doc=4083,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 4083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=4083)
      0.33333334 = coord(1/3)
    
  17. Marchionini, G.: Information seeking in full-text end-user-oriented search system : the roles of domain and search expertise (1993) 0.02
    0.018751217 = product of:
      0.05625365 = sum of:
        0.05625365 = weight(_text_:g in 5100) [ClassicSimilarity], result of:
          0.05625365 = score(doc=5100,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 5100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=5100)
      0.33333334 = coord(1/3)
    
  18. Salton, G.: ¬The state of retrieval system evaluation (1992) 0.02
    0.018751217 = product of:
      0.05625365 = sum of:
        0.05625365 = weight(_text_:g in 5250) [ClassicSimilarity], result of:
          0.05625365 = score(doc=5250,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 5250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=5250)
      0.33333334 = coord(1/3)
    
  19. Knorz, G.: Testverfahren für intelligente Indexierungs- und Retrievalsysteme anhand deutsch-sprachiger sozialwissenschaftlicher Fachinformation (GIRT) : Bericht über einen Workshop am 12. September 1997 im IZ Sozialwissenschaften, Bonn (1998) 0.02
    0.018751217 = product of:
      0.05625365 = sum of:
        0.05625365 = weight(_text_:g in 5080) [ClassicSimilarity], result of:
          0.05625365 = score(doc=5080,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 5080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=5080)
      0.33333334 = coord(1/3)
    
  20. Angelini, M.; Fazzini, V.; Ferro, N.; Santucci, G.; Silvello, G.: CLAIRE: A combinatorial visual analytics system for information retrieval evaluation (2018) 0.02
    0.016573891 = product of:
      0.049721673 = sum of:
        0.049721673 = weight(_text_:g in 5049) [ClassicSimilarity], result of:
          0.049721673 = score(doc=5049,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.2934334 = fieldWeight in 5049, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5049)
      0.33333334 = coord(1/3)
    

Languages

  • e 56
  • d 41
  • f 1
  • m 1
  • More… Less…

Types

  • a 83
  • el 6
  • s 6
  • m 5
  • r 4
  • x 4
  • More… Less…