Search (31 results, page 2 of 2)

  • × theme_ss:"Retrievalstudien"
  • × year_i:[2000 TO 2010}
  1. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.00
    0.0016156164 = product of:
      0.024234245 = sum of:
        0.024234245 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.024234245 = score(doc=3275,freq=8.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
      0.06666667 = coord(1/15)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  2. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.00
    0.0013991648 = product of:
      0.020987472 = sum of:
        0.020987472 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.020987472 = score(doc=1879,freq=6.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.06666667 = coord(1/15)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  3. Schoger, A.; Frommer, J.: Heterogen - was nun? : Evaluierung heterogener bibliographischer Metadaten (2000) 0.00
    0.0012117123 = product of:
      0.018175682 = sum of:
        0.018175682 = weight(_text_:und in 4465) [ClassicSimilarity], result of:
          0.018175682 = score(doc=4465,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.29385152 = fieldWeight in 4465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4465)
      0.06666667 = coord(1/15)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.110-128
  4. Heinz, M.; Voigt, H.: Aufbau einer Suchmaschine für ein Forschungsinstitut : Aufgabe für die Bibliothek? (2000) 0.00
    0.0011424132 = product of:
      0.017136198 = sum of:
        0.017136198 = weight(_text_:und in 5234) [ClassicSimilarity], result of:
          0.017136198 = score(doc=5234,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.27704588 = fieldWeight in 5234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5234)
      0.06666667 = coord(1/15)
    
    Abstract
    Anhand eines einfachen Modells wird geprüft, ob der Nutzen den Aufbau einer Spezialsuchmaschine trägt. Zum Vergleich werden fünf große Suchmaschinen herangezogen und deren Ergebnisse bei gleichen Fragestellungen analysiert. Es ergeben sich gravierende Abweichungen sowohl in der Überdeckung der Ergebnismengen als auch im Ranking. Es erscheint also sinnvoll, eine eigene Suchmaschine zu betreiben
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.335-341
  5. Hierl, S.: Bezugsrahmen für die Evaluation von Information Retrieval Systemen mit Visualisierungskomponenten (2007) 0.00
    0.0011424132 = product of:
      0.017136198 = sum of:
        0.017136198 = weight(_text_:und in 3040) [ClassicSimilarity], result of:
          0.017136198 = score(doc=3040,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.27704588 = fieldWeight in 3040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3040)
      0.06666667 = coord(1/15)
    
    Abstract
    Folgender Beitrag beschäftigt sich mit der Konzeption und Durchführung von nachhaltigen Evaluationen von Information Retrieval Systemen mit Visualisierungskomponenten. Bisherige Evaluationsansätze differieren sowohl in der Methodenauswahl als auch Untersuchungsanlage, wie eine State-of-the-Art-Analyse aufzeigt. Im Anschluss werden die größten Herausforderungen, die sich bei Evaluationen dieser Art ergeben mit Vorschlägen zu potenziellen Lösungsansätzen diskutiert. Auf der Grundlage eines morphologischen Rahmens wird ein Bezugsrahmen für die Evaluation von Information Retrieval Systemen mit Visualisierungskomponenten vorgeschlagen, das einen integrierten Ansatz zur Kombination geeigneter Methoden aus dem Bereich der Usability-Evaluation und der Retrievaleffektivitäts-Evaluation verfolgt.
  6. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.00
    0.0010493736 = product of:
      0.015740603 = sum of:
        0.015740603 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.015740603 = score(doc=2482,freq=6.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.06666667 = coord(1/15)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
  7. ¬The Eleventh Text Retrieval Conference, TREC 2002 (2003) 0.00
    0.0010082887 = product of:
      0.01512433 = sum of:
        0.01512433 = product of:
          0.03024866 = sum of:
            0.03024866 = weight(_text_:22 in 4049) [ClassicSimilarity], result of:
              0.03024866 = score(doc=4049,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.30952093 = fieldWeight in 4049, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4049)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Proceedings of the llth TREC-conference held in Gaithersburg, Maryland (USA), November 19-22, 2002. Aim of the conference was discussion an retrieval and related information-seeking tasks for large test collection. 93 research groups used different techniques, for information retrieval from the same large database. This procedure makes it possible to compare the results. The tasks are: Cross-language searching, filtering, interactive searching, searching for novelty, question answering, searching for video shots, and Web searching.
  8. Leininger, K.: Interindexer consistency in PsychINFO (2000) 0.00
    7.562165E-4 = product of:
      0.011343247 = sum of:
        0.011343247 = product of:
          0.022686495 = sum of:
            0.022686495 = weight(_text_:22 in 2552) [ClassicSimilarity], result of:
              0.022686495 = score(doc=2552,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.23214069 = fieldWeight in 2552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2552)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    9. 2.1997 18:44:22
  9. King, D.W.: Blazing new trails : in celebration of an audacious career (2000) 0.00
    6.3018047E-4 = product of:
      0.009452706 = sum of:
        0.009452706 = product of:
          0.018905412 = sum of:
            0.018905412 = weight(_text_:22 in 1184) [ClassicSimilarity], result of:
              0.018905412 = score(doc=1184,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.19345059 = fieldWeight in 1184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1184)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    22. 9.1997 19:16:05
  10. Petrelli, D.: On the role of user-centred evaluation in the advancement of interactive information retrieval (2008) 0.00
    6.3018047E-4 = product of:
      0.009452706 = sum of:
        0.009452706 = product of:
          0.018905412 = sum of:
            0.018905412 = weight(_text_:22 in 2026) [ClassicSimilarity], result of:
              0.018905412 = score(doc=2026,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.19345059 = fieldWeight in 2026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2026)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Information processing and management. 44(2008) no.1, S.22-38
  11. Larsen, B.; Ingwersen, P.; Lund, B.: Data fusion according to the principle of polyrepresentation (2009) 0.00
    5.0414435E-4 = product of:
      0.007562165 = sum of:
        0.007562165 = product of:
          0.01512433 = sum of:
            0.01512433 = weight(_text_:22 in 2752) [ClassicSimilarity], result of:
              0.01512433 = score(doc=2752,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.15476047 = fieldWeight in 2752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2752)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    22. 3.2009 18:48:28