Search (61 results, page 1 of 4)

  • × theme_ss:"Retrievalstudien"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.05
    0.0522651 = product of:
      0.2508725 = sum of:
        0.019074813 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.019074813 = score(doc=3275,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.10151755 = weight(_text_:methodik in 3275) [ClassicSimilarity], result of:
          0.10151755 = score(doc=3275,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.009687742 = weight(_text_:der in 3275) [ClassicSimilarity], result of:
          0.009687742 = score(doc=3275,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.10151755 = weight(_text_:methodik in 3275) [ClassicSimilarity], result of:
          0.10151755 = score(doc=3275,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.019074813 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.019074813 = score(doc=3275,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
      0.20833333 = coord(5/24)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  2. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.01
    0.013689447 = product of:
      0.08213668 = sum of:
        0.025233604 = weight(_text_:und in 5975) [ClassicSimilarity], result of:
          0.025233604 = score(doc=5975,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.51830536 = fieldWeight in 5975, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
        0.014889815 = weight(_text_:des in 5975) [ClassicSimilarity], result of:
          0.014889815 = score(doc=5975,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 5975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
        0.016779663 = weight(_text_:der in 5975) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5975,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5975, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
        0.025233604 = weight(_text_:und in 5975) [ClassicSimilarity], result of:
          0.025233604 = score(doc=5975,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.51830536 = fieldWeight in 5975, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  3. Kluck, M.; Winter, M.: Topic-Entwicklung und Relevanzbewertung bei GIRT : ein Werkstattbericht (2006) 0.01
    0.013065506 = product of:
      0.078393035 = sum of:
        0.023361778 = weight(_text_:und in 5967) [ClassicSimilarity], result of:
          0.023361778 = score(doc=5967,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 5967, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
        0.014889815 = weight(_text_:des in 5967) [ClassicSimilarity], result of:
          0.014889815 = score(doc=5967,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 5967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
        0.016779663 = weight(_text_:der in 5967) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5967,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5967, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
        0.023361778 = weight(_text_:und in 5967) [ClassicSimilarity], result of:
          0.023361778 = score(doc=5967,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 5967, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Zusammenhang zwischen Topic-Entwicklung und Relevanzbewertung wird anhand einiger Fallbeispiele aus der CLEF-Evaluierungskampagne 2005 diskutiert. Im fachspezifischen Retrievaltest für multilinguale Systeme wurden die Topics am Dokumentenbestand von GIRT entwickelt. Die Zusammenhänge von Topic-Formulierung und Interpretationsspielräumen bei der Relevanzbewertung werden untersucht.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  4. Fugmann, R.: ¬Das Faule Ei des Kolumbus im Aslib-Cranfield Vergleich von Informationssystemen : Die erneute Betrachtung eines einflussreichen Experiments (2004) 0.01
    0.012127376 = product of:
      0.072764255 = sum of:
        0.014454362 = weight(_text_:und in 2364) [ClassicSimilarity], result of:
          0.014454362 = score(doc=2364,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 2364, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2364)
        0.018425206 = weight(_text_:des in 2364) [ClassicSimilarity], result of:
          0.018425206 = score(doc=2364,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 2364, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2364)
        0.025430324 = weight(_text_:der in 2364) [ClassicSimilarity], result of:
          0.025430324 = score(doc=2364,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5182773 = fieldWeight in 2364, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2364)
        0.014454362 = weight(_text_:und in 2364) [ClassicSimilarity], result of:
          0.014454362 = score(doc=2364,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 2364, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2364)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Beitrag gibt einen kritischen Rückblick auf die Experimente des ASLIB-CranfieldProjekts, mit dem die Leistungsfähigkeit verschiedenere Methoden der Inhaltserschließung verglichen wurden. Bemängelt wird die fehlende Unterscheidung zwischen Erinnerungsrecherche und Entdeckungsrecherche sowie die Wirklichkeitsferne der Versuchsbedingungen im ASLIB-Cranfield Projekt insbesondere Abwertung der Indexierung, Wirklichkeitsferne der Suchziele, die Empfehlung zum oberflächlichen Indexieren, die vermeintliche "gesetzmäßige Umkehrrelation" zwischen Ballast und Verlust sowie die Geringschätzung von Informationsverlust. Der Autor plädiert dafür, bei der Weiterentwicklung von Methoden der Inhaltserschließung die Erfahrungen aus der Vergangenheit nicht außer Acht zu lassen.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.4, S.211-220
  5. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.01
    0.010707451 = product of:
      0.0642447 = sum of:
        0.021326289 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.021326289 = score(doc=261,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.009687742 = weight(_text_:der in 261) [ClassicSimilarity], result of:
          0.009687742 = score(doc=261,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.021326289 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.021326289 = score(doc=261,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.011904384 = product of:
          0.023808768 = sum of:
            0.023808768 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.023808768 = score(doc=261,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.5 = coord(1/2)
      0.16666667 = coord(4/24)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
  6. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.010617934 = product of:
      0.063707605 = sum of:
        0.015994716 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015994716 = score(doc=6386,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.011167361 = weight(_text_:des in 6386) [ClassicSimilarity], result of:
          0.011167361 = score(doc=6386,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020550804 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.020550804 = score(doc=6386,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015994716 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015994716 = score(doc=6386,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.16666667 = coord(4/24)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  7. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.010517932 = product of:
      0.06310759 = sum of:
        0.016859911 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.016859911 = score(doc=5863,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.009306135 = weight(_text_:des in 5863) [ClassicSimilarity], result of:
          0.009306135 = score(doc=5863,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020081628 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.020081628 = score(doc=5863,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.016859911 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.016859911 = score(doc=5863,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.16666667 = coord(4/24)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  8. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.01
    0.010181952 = product of:
      0.061091714 = sum of:
        0.016690461 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.016690461 = score(doc=266,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.013028587 = weight(_text_:des in 266) [ClassicSimilarity], result of:
          0.013028587 = score(doc=266,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.014682204 = weight(_text_:der in 266) [ClassicSimilarity], result of:
          0.014682204 = score(doc=266,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29922754 = fieldWeight in 266, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.016690461 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.016690461 = score(doc=266,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
      0.16666667 = coord(4/24)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  9. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.01
    0.0097642355 = product of:
      0.058585413 = sum of:
        0.010115947 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.010115947 = score(doc=2145,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.011167361 = weight(_text_:des in 2145) [ClassicSimilarity], result of:
          0.011167361 = score(doc=2145,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 2145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.027186157 = weight(_text_:der in 2145) [ClassicSimilarity], result of:
          0.027186157 = score(doc=2145,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.55406165 = fieldWeight in 2145, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.010115947 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.010115947 = score(doc=2145,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
      0.16666667 = coord(4/24)
    
    Abstract
    Ausgehend von einer Betrachtung in der Rechtsinformatik geläufiger Annahmen zur juristischen Informationserschließung beschreibt der Beitrag wesentliche Ergebnisse einer empirischen Studie der Retrievaleffektivität von Re-cherchen in juristischen Datenbanken. Dabei steht die Frage nach der Notwendigkeit einer intellektuellen Erschließung einerseits, der Effektivität der sogenannten Stichwortsuche andererseits im Mittelpunkt. Die Ergebnisse der Studie, bei der auch ein Vergleich zwischen einem Informationssystem auf der Basis eines Booleschen Retrievalmodells mit einem System auf der Basis statistischer Verfahren vorgenommen wurde, legen den Schluss nahe, dass in der rechtsinformatischen Fachliteratur analytisch begründete Annahmen wie die Gefahr zu großer Antwortmengen bei der Stichwortsuche empirisch nicht zu belegen sind. Auch zeigt sich keine Überlegenheit intellektueller Erschließungsverfahren (Beschlagwortung) gegenüber der automatischen Indexierung, im Gegenteil führt der Einsatz eines statistischen Verfahrens bei identischer Dokumentkollektion zu einer höheren Wiedergewinnungsrate (recall).
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  10. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.01
    0.009424793 = product of:
      0.056548752 = sum of:
        0.016519273 = weight(_text_:und in 2919) [ClassicSimilarity], result of:
          0.016519273 = score(doc=2919,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 2919, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
        0.0074449074 = weight(_text_:des in 2919) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=2919,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
        0.016065303 = weight(_text_:der in 2919) [ClassicSimilarity], result of:
          0.016065303 = score(doc=2919,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.32741547 = fieldWeight in 2919, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
        0.016519273 = weight(_text_:und in 2919) [ClassicSimilarity], result of:
          0.016519273 = score(doc=2919,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 2919, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.16666667 = coord(4/24)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  11. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.01
    0.008412981 = product of:
      0.050477885 = sum of:
        0.012389454 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012389454 = score(doc=883,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.011167361 = weight(_text_:des in 883) [ClassicSimilarity], result of:
          0.011167361 = score(doc=883,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.014531613 = weight(_text_:der in 883) [ClassicSimilarity], result of:
          0.014531613 = score(doc=883,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 883, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.012389454 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012389454 = score(doc=883,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
      0.16666667 = coord(4/24)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  12. Wolff, C.: Leistungsvergleich der Retrievaloberflächen zwischen Web und klassischen Expertensystemen (2001) 0.01
    0.00832328 = product of:
      0.06658624 = sum of:
        0.022079403 = weight(_text_:und in 5870) [ClassicSimilarity], result of:
          0.022079403 = score(doc=5870,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 5870, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5870)
        0.022427438 = weight(_text_:der in 5870) [ClassicSimilarity], result of:
          0.022427438 = score(doc=5870,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4570776 = fieldWeight in 5870, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5870)
        0.022079403 = weight(_text_:und in 5870) [ClassicSimilarity], result of:
          0.022079403 = score(doc=5870,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 5870, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5870)
      0.125 = coord(3/24)
    
    Abstract
    Die meisten Web-Auftritte der Hosts waren bisher für den Retrieval-Laien gedacht. Im Hintergrund steht dabei das Ziel: mehr Nutzung durch einfacheres Retrieval. Dieser Ansatz steht aber im Konflikt mit der wachsenden Datenmenge und Dokumentgröße, die eigentlich ein immer ausgefeilteres Retrieval verlangen. Häufig wird von Information Professionals die Kritik geäußert, dass die Webanwendungen einen Verlust an Relevanz bringen. Wie weit der Nutzer tatsächlich einen Kompromiss zwischen Relevanz und Vollständigkeit eingehen muss, soll in diesem Beitrag anhand verschiedener Host-Rechner quantifiziert werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  13. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.01
    0.007937903 = product of:
      0.06350322 = sum of:
        0.023361778 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.023361778 = score(doc=1734,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.016779663 = weight(_text_:der in 1734) [ClassicSimilarity], result of:
          0.016779663 = score(doc=1734,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 1734, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.023361778 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.023361778 = score(doc=1734,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
      0.125 = coord(3/24)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  14. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.01
    0.0074888063 = product of:
      0.05991045 = sum of:
        0.02064909 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.02064909 = score(doc=1159,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.01861227 = weight(_text_:des in 1159) [ClassicSimilarity], result of:
          0.01861227 = score(doc=1159,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30596817 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.02064909 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.02064909 = score(doc=1159,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.125 = coord(3/24)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  15. Hierl, S.: Bezugsrahmen für die Evaluation von Information Retrieval Systemen mit Visualisierungskomponenten (2007) 0.01
    0.0060797883 = product of:
      0.048638307 = sum of:
        0.013487929 = weight(_text_:und in 3040) [ClassicSimilarity], result of:
          0.013487929 = score(doc=3040,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 3040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3040)
        0.02166245 = weight(_text_:der in 3040) [ClassicSimilarity], result of:
          0.02166245 = score(doc=3040,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44148692 = fieldWeight in 3040, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3040)
        0.013487929 = weight(_text_:und in 3040) [ClassicSimilarity], result of:
          0.013487929 = score(doc=3040,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 3040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3040)
      0.125 = coord(3/24)
    
    Abstract
    Folgender Beitrag beschäftigt sich mit der Konzeption und Durchführung von nachhaltigen Evaluationen von Information Retrieval Systemen mit Visualisierungskomponenten. Bisherige Evaluationsansätze differieren sowohl in der Methodenauswahl als auch Untersuchungsanlage, wie eine State-of-the-Art-Analyse aufzeigt. Im Anschluss werden die größten Herausforderungen, die sich bei Evaluationen dieser Art ergeben mit Vorschlägen zu potenziellen Lösungsansätzen diskutiert. Auf der Grundlage eines morphologischen Rahmens wird ein Bezugsrahmen für die Evaluation von Information Retrieval Systemen mit Visualisierungskomponenten vorgeschlagen, das einen integrierten Ansatz zur Kombination geeigneter Methoden aus dem Bereich der Usability-Evaluation und der Retrievaleffektivitäts-Evaluation verfolgt.
  16. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.01
    0.005842385 = product of:
      0.04673908 = sum of:
        0.016519273 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016519273 = score(doc=1879,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.013700536 = weight(_text_:der in 1879) [ClassicSimilarity], result of:
          0.013700536 = score(doc=1879,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 1879, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016519273 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016519273 = score(doc=1879,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.125 = coord(3/24)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  17. Heinz, M.; Voigt, H.: Aufbau einer Suchmaschine für ein Forschungsinstitut : Aufgabe für die Bibliothek? (2000) 0.01
    0.00546944 = product of:
      0.04375552 = sum of:
        0.013487929 = weight(_text_:und in 5234) [ClassicSimilarity], result of:
          0.013487929 = score(doc=5234,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 5234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5234)
        0.016779663 = weight(_text_:der in 5234) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5234,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5234, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5234)
        0.013487929 = weight(_text_:und in 5234) [ClassicSimilarity], result of:
          0.013487929 = score(doc=5234,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 5234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5234)
      0.125 = coord(3/24)
    
    Abstract
    Anhand eines einfachen Modells wird geprüft, ob der Nutzen den Aufbau einer Spezialsuchmaschine trägt. Zum Vergleich werden fünf große Suchmaschinen herangezogen und deren Ergebnisse bei gleichen Fragestellungen analysiert. Es ergeben sich gravierende Abweichungen sowohl in der Überdeckung der Ergebnismengen als auch im Ranking. Es erscheint also sinnvoll, eine eigene Suchmaschine zu betreiben
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.335-341
  18. Schoger, A.; Frommer, J.: Heterogen - was nun? : Evaluierung heterogener bibliographischer Metadaten (2000) 0.00
    0.0023843516 = product of:
      0.028612217 = sum of:
        0.0143061085 = weight(_text_:und in 4465) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=4465,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 4465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4465)
        0.0143061085 = weight(_text_:und in 4465) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=4465,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 4465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4465)
      0.083333336 = coord(2/24)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.110-128
  19. Harman, D.K.: ¬The TREC test collections (2005) 0.00
    8.7590737E-4 = product of:
      0.021021776 = sum of:
        0.021021776 = product of:
          0.04204355 = sum of:
            0.04204355 = weight(_text_:29 in 4637) [ClassicSimilarity], result of:
              0.04204355 = score(doc=4637,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5441145 = fieldWeight in 4637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4637)
          0.5 = coord(1/2)
      0.041666668 = coord(1/24)
    
    Date
    29. 3.1996 18:16:49
  20. Buckley, C.; Voorhees, E.M.: Retrieval system evaluation (2005) 0.00
    8.7590737E-4 = product of:
      0.021021776 = sum of:
        0.021021776 = product of:
          0.04204355 = sum of:
            0.04204355 = weight(_text_:29 in 648) [ClassicSimilarity], result of:
              0.04204355 = score(doc=648,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5441145 = fieldWeight in 648, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=648)
          0.5 = coord(1/2)
      0.041666668 = coord(1/24)
    
    Date
    29. 3.1996 18:16:49

Languages

  • e 43
  • d 18