Search (19 results, page 1 of 1)

  • × theme_ss:"Retrievalstudien"
  • × language_ss:"d"
  1. Womser-Hacker, C.: Evaluierung im Information Retrieval (2013) 0.02
    0.019348824 = product of:
      0.06772088 = sum of:
        0.024166545 = product of:
          0.04833309 = sum of:
            0.04833309 = weight(_text_:c in 728) [ClassicSimilarity], result of:
              0.04833309 = score(doc=728,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.381109 = fieldWeight in 728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.078125 = fieldNorm(doc=728)
          0.5 = coord(1/2)
        0.043554336 = weight(_text_:u in 728) [ClassicSimilarity], result of:
          0.043554336 = score(doc=728,freq=2.0), product of:
            0.120389536 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.036766402 = queryNorm
            0.3617784 = fieldWeight in 728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.078125 = fieldNorm(doc=728)
      0.2857143 = coord(2/7)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  2. Bauer, G.; Schneider, C.: PADOK-II : Untersuchungen zur Volltextproblematik und zur interpretativen Analyse der Retrievalprotokolle (1990) 0.02
    0.018622149 = product of:
      0.065177515 = sum of:
        0.019333236 = product of:
          0.03866647 = sum of:
            0.03866647 = weight(_text_:c in 4164) [ClassicSimilarity], result of:
              0.03866647 = score(doc=4164,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.3048872 = fieldWeight in 4164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4164)
          0.5 = coord(1/2)
        0.04584428 = weight(_text_:g in 4164) [ClassicSimilarity], result of:
          0.04584428 = score(doc=4164,freq=2.0), product of:
            0.13809267 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.036766402 = queryNorm
            0.331982 = fieldWeight in 4164, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=4164)
      0.2857143 = coord(2/7)
    
  3. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.02
    0.015546199 = product of:
      0.054411694 = sum of:
        0.02392366 = product of:
          0.04784732 = sum of:
            0.04784732 = weight(_text_:c in 4667) [ClassicSimilarity], result of:
              0.04784732 = score(doc=4667,freq=4.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.3772787 = fieldWeight in 4667, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4667)
          0.5 = coord(1/2)
        0.030488033 = weight(_text_:u in 4667) [ClassicSimilarity], result of:
          0.030488033 = score(doc=4667,freq=2.0), product of:
            0.120389536 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.036766402 = queryNorm
            0.25324488 = fieldWeight in 4667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
      0.2857143 = coord(2/7)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  4. Kluck, M.; Winter, M.: Topic-Entwicklung und Relevanzbewertung bei GIRT : ein Werkstattbericht (2006) 0.02
    0.015479059 = product of:
      0.054176703 = sum of:
        0.019333236 = product of:
          0.03866647 = sum of:
            0.03866647 = weight(_text_:c in 5967) [ClassicSimilarity], result of:
              0.03866647 = score(doc=5967,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.3048872 = fieldWeight in 5967, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5967)
          0.5 = coord(1/2)
        0.034843467 = weight(_text_:u in 5967) [ClassicSimilarity], result of:
          0.034843467 = score(doc=5967,freq=2.0), product of:
            0.120389536 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.036766402 = queryNorm
            0.28942272 = fieldWeight in 5967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
      0.2857143 = coord(2/7)
    
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  5. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.02
    0.015479059 = product of:
      0.054176703 = sum of:
        0.019333236 = product of:
          0.03866647 = sum of:
            0.03866647 = weight(_text_:c in 5975) [ClassicSimilarity], result of:
              0.03866647 = score(doc=5975,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.3048872 = fieldWeight in 5975, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5975)
          0.5 = coord(1/2)
        0.034843467 = weight(_text_:u in 5975) [ClassicSimilarity], result of:
          0.034843467 = score(doc=5975,freq=2.0), product of:
            0.120389536 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.036766402 = queryNorm
            0.28942272 = fieldWeight in 5975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
      0.2857143 = coord(2/7)
    
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.009823774 = product of:
      0.068766415 = sum of:
        0.068766415 = weight(_text_:g in 6386) [ClassicSimilarity], result of:
          0.068766415 = score(doc=6386,freq=8.0), product of:
            0.13809267 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.036766402 = queryNorm
            0.49797297 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  7. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.01
    0.008186478 = product of:
      0.057305347 = sum of:
        0.057305347 = weight(_text_:g in 4040) [ClassicSimilarity], result of:
          0.057305347 = score(doc=4040,freq=2.0), product of:
            0.13809267 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.036766402 = queryNorm
            0.4149775 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.14285715 = coord(1/7)
    
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  8. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.008186478 = product of:
      0.057305347 = sum of:
        0.057305347 = weight(_text_:g in 5863) [ClassicSimilarity], result of:
          0.057305347 = score(doc=5863,freq=8.0), product of:
            0.13809267 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.036766402 = queryNorm
            0.4149775 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  9. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.01
    0.0077395295 = product of:
      0.027088352 = sum of:
        0.009666618 = product of:
          0.019333236 = sum of:
            0.019333236 = weight(_text_:c in 2919) [ClassicSimilarity], result of:
              0.019333236 = score(doc=2919,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.1524436 = fieldWeight in 2919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2919)
          0.5 = coord(1/2)
        0.017421734 = weight(_text_:u in 2919) [ClassicSimilarity], result of:
          0.017421734 = score(doc=2919,freq=2.0), product of:
            0.120389536 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.036766402 = queryNorm
            0.14471136 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.2857143 = coord(2/7)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  10. Knorz, G.: Testverfahren für intelligente Indexierungs- und Retrievalsysteme anhand deutsch-sprachiger sozialwissenschaftlicher Fachinformation (GIRT) : Bericht über einen Workshop am 12. September 1997 im IZ Sozialwissenschaften, Bonn (1998) 0.01
    0.006549183 = product of:
      0.04584428 = sum of:
        0.04584428 = weight(_text_:g in 5080) [ClassicSimilarity], result of:
          0.04584428 = score(doc=5080,freq=2.0), product of:
            0.13809267 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.036766402 = queryNorm
            0.331982 = fieldWeight in 5080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=5080)
      0.14285715 = coord(1/7)
    
  11. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.01
    0.005730535 = product of:
      0.040113743 = sum of:
        0.040113743 = weight(_text_:g in 4885) [ClassicSimilarity], result of:
          0.040113743 = score(doc=4885,freq=2.0), product of:
            0.13809267 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.036766402 = queryNorm
            0.29048425 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
      0.14285715 = coord(1/7)
    
  12. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.0049813404 = product of:
      0.03486938 = sum of:
        0.03486938 = product of:
          0.06973876 = sum of:
            0.06973876 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.06973876 = score(doc=262,freq=2.0), product of:
                0.12874968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036766402 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    20.10.2000 12:22:23
  13. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.00
    0.0035878017 = product of:
      0.02511461 = sum of:
        0.02511461 = product of:
          0.05022922 = sum of:
            0.05022922 = weight(_text_:c in 808) [ClassicSimilarity], result of:
              0.05022922 = score(doc=808,freq=6.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.3960601 = fieldWeight in 808, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.046875 = fieldNorm(doc=808)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
  14. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.00
    0.0028464803 = product of:
      0.019925361 = sum of:
        0.019925361 = product of:
          0.039850723 = sum of:
            0.039850723 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.039850723 = score(doc=261,freq=2.0), product of:
                0.12874968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036766402 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
  15. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.00
    0.0027618909 = product of:
      0.019333236 = sum of:
        0.019333236 = product of:
          0.03866647 = sum of:
            0.03866647 = weight(_text_:c in 2653) [ClassicSimilarity], result of:
              0.03866647 = score(doc=2653,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.3048872 = fieldWeight in 2653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2653)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  16. Wolff, C.: Leistungsvergleich der Retrievaloberflächen zwischen Web und klassischen Expertensystemen (2001) 0.00
    0.0024166545 = product of:
      0.01691658 = sum of:
        0.01691658 = product of:
          0.03383316 = sum of:
            0.03383316 = weight(_text_:c in 5870) [ClassicSimilarity], result of:
              0.03383316 = score(doc=5870,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.2667763 = fieldWeight in 5870, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5870)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  17. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.00
    0.0024166545 = product of:
      0.01691658 = sum of:
        0.01691658 = product of:
          0.03383316 = sum of:
            0.03383316 = weight(_text_:c in 266) [ClassicSimilarity], result of:
              0.03383316 = score(doc=266,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.2667763 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  18. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.00
    0.00213486 = product of:
      0.01494402 = sum of:
        0.01494402 = product of:
          0.02988804 = sum of:
            0.02988804 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
              0.02988804 = score(doc=328,freq=2.0), product of:
                0.12874968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036766402 = queryNorm
                0.23214069 = fieldWeight in 328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=328)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 7.2012 19:25:54
  19. Wartena, C.; Golub, K.: Evaluierung von Verschlagwortung im Kontext des Information Retrievals (2021) 0.00
    0.0017261818 = product of:
      0.012083272 = sum of:
        0.012083272 = product of:
          0.024166545 = sum of:
            0.024166545 = weight(_text_:c in 376) [ClassicSimilarity], result of:
              0.024166545 = score(doc=376,freq=2.0), product of:
                0.12682222 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.036766402 = queryNorm
                0.1905545 = fieldWeight in 376, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=376)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)