Search (52 results, page 1 of 3)

  • × language_ss:"d"
  • × theme_ss:"Retrievalstudien"
  1. Mandl, T.: Evaluierung im Information Retrieval : die Hildesheimer Antwort auf aktuelle Herausforderungen der globalisierten Informationsgesellschaft (2010) 0.06
    0.063610785 = product of:
      0.15902695 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 4011) [ClassicSimilarity], result of:
              0.043555573 = score(doc=4011,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
        0.09252803 = weight(_text_:forschung in 4011) [ClassicSimilarity], result of:
          0.09252803 = score(doc=4011,freq=4.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.6081167 = fieldWeight in 4011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
        0.023520604 = weight(_text_:und in 4011) [ClassicSimilarity], result of:
          0.023520604 = score(doc=4011,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 4011, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
        0.02120054 = weight(_text_:des in 4011) [ClassicSimilarity], result of:
          0.02120054 = score(doc=4011,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 4011, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
      0.4 = coord(4/10)
    
    Abstract
    Die Forschung zur Evaluierung von Information Retrieval Systemen hat in den letzten Jahren neue Richtungen eingeschlagen und interessante Ergebnisse erzielt. Während früher primär die Überlegenheit einzelner Verfahren in heterogenen Anwendungsszenarien im Fokus stand, gerät zunehmend die Validität der Evaluierungsmethodik ins Zentrum der Aufmerksamkeit. Dieser Artikel fasst die aktuelle Forschung zu innovativen Evaluierungsmaßen und zur Zuverlässigkeit des so genannten Cranfield-Paradigmas zusammen.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.341-348
  2. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.04
    0.04130563 = product of:
      0.13768543 = sum of:
        0.081784 = weight(_text_:forschung in 4040) [ClassicSimilarity], result of:
          0.081784 = score(doc=4040,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.5375043 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.029400755 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
          0.029400755 = score(doc=4040,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.42413816 = fieldWeight in 4040, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.026500674 = weight(_text_:des in 4040) [ClassicSimilarity], result of:
          0.026500674 = score(doc=4040,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.3 = coord(3/10)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  3. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.04
    0.036766816 = product of:
      0.122556046 = sum of:
        0.0654272 = weight(_text_:forschung in 5975) [ClassicSimilarity], result of:
          0.0654272 = score(doc=5975,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 5975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
        0.035928313 = weight(_text_:und in 5975) [ClassicSimilarity], result of:
          0.035928313 = score(doc=5975,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.51830536 = fieldWeight in 5975, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
        0.02120054 = weight(_text_:des in 5975) [ClassicSimilarity], result of:
          0.02120054 = score(doc=5975,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 5975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
      0.3 = coord(3/10)
    
    Abstract
    Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  4. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.03
    0.030062212 = product of:
      0.100207366 = sum of:
        0.0654272 = weight(_text_:forschung in 3097) [ClassicSimilarity], result of:
          0.0654272 = score(doc=3097,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.013579627 = weight(_text_:und in 3097) [ClassicSimilarity], result of:
          0.013579627 = score(doc=3097,freq=2.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.19590102 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.02120054 = weight(_text_:des in 3097) [ClassicSimilarity], result of:
          0.02120054 = score(doc=3097,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
      0.3 = coord(3/10)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.
  5. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.03
    0.029696418 = product of:
      0.07424104 = sum of:
        0.01633334 = product of:
          0.03266668 = sum of:
            0.03266668 = weight(_text_:wissenschaft in 328) [ClassicSimilarity], result of:
              0.03266668 = score(doc=328,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26313335 = fieldWeight in 328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=328)
          0.5 = coord(1/2)
        0.026946237 = weight(_text_:und in 328) [ClassicSimilarity], result of:
          0.026946237 = score(doc=328,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.38872904 = fieldWeight in 328, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=328)
        0.022486566 = weight(_text_:des in 328) [ClassicSimilarity], result of:
          0.022486566 = score(doc=328,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.25962257 = fieldWeight in 328, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=328)
        0.008474899 = product of:
          0.025424697 = sum of:
            0.025424697 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
              0.025424697 = score(doc=328,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.23214069 = fieldWeight in 328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=328)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    In diesem Artikel wird ein Eyetracking-Experiment beschrieben, bei dem untersucht wurde, wann und auf Basis welcher Informationen Relevanzentscheidungen bei der themenbezogenen Dokumentenbewertung fallen und welche Faktoren auf die Relevanzentscheidung einwirken. Nach einer kurzen Einführung werden relevante Studien aufgeführt, in denen Eyetracking als Untersuchungsmethode für Interaktionsverhalten mit Ergebnislisten (Information Seeking Behavior) verwendet wurde. Nutzerverhalten wird hierbei vor allem durch unterschiedliche Aufgaben-Typen, dargestellte Informationen und durch das Ranking eines Ergebnisses beeinflusst. Durch EyetrackingUntersuchungen lassen sich Nutzer außerdem in verschiedene Klassen von Bewertungs- und Lesetypen einordnen. Diese Informationen können als implizites Feedback genutzt werden, um so die Suche zu personalisieren und um die Relevanz von Suchergebnissen ohne aktives Zutun des Users zu erhöhen. In einem explorativen Eyetracking-Experiment mit 12 Studenten der Hochschule Darmstadt werden anhand der Länge der Gesamtbewertung, Anzahl der Fixationen, Anzahl der besuchten Metadatenelemente und Länge des Scanpfades zwei typische Bewertungstypen identifiziert. Das Metadatenfeld Abstract wird im Experiment zuverlässig als wichtigste Dokumenteigenschaft für die Zuordnung von Relevanz ermittelt.
    Date
    22. 7.2012 19:25:54
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.3, S.145-156
  6. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.02
    0.023806335 = product of:
      0.07935445 = sum of:
        0.028624399 = weight(_text_:forschung in 4416) [ClassicSimilarity], result of:
          0.028624399 = score(doc=4416,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.1881265 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.024495726 = weight(_text_:und in 4416) [ClassicSimilarity], result of:
          0.024495726 = score(doc=4416,freq=34.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.35337773 = fieldWeight in 4416, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.026234329 = weight(_text_:des in 4416) [ClassicSimilarity], result of:
          0.026234329 = score(doc=4416,freq=16.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.302893 = fieldWeight in 4416, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.3 = coord(3/10)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  7. Knorz, G.: Testverfahren für intelligente Indexierungs- und Retrievalsysteme anhand deutsch-sprachiger sozialwissenschaftlicher Fachinformation (GIRT) : Bericht über einen Workshop am 12. September 1997 im IZ Sozialwissenschaften, Bonn (1998) 0.02
    0.02367574 = product of:
      0.07891913 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 5080) [ClassicSimilarity], result of:
              0.043555573 = score(doc=5080,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 5080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5080)
          0.5 = coord(1/2)
        0.027159253 = weight(_text_:und in 5080) [ClassicSimilarity], result of:
          0.027159253 = score(doc=5080,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.39180204 = fieldWeight in 5080, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5080)
        0.02998209 = weight(_text_:des in 5080) [ClassicSimilarity], result of:
          0.02998209 = score(doc=5080,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.34616345 = fieldWeight in 5080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5080)
      0.3 = coord(3/10)
    
    Content
    A. Die Initiative "GIRT" 1. Vorträge 2. Ziele und Perspektiven des Projektes GIRT (Krause) 3. Generelle Ergebnisse der TREC-Studien, einschließlich TREC-5 (Womser-Hacker) 4. Ergebnisse des GIRT-Pretests (Kluck) 5. Multilingualität in TREC (Schäuble) B. Abschlußdiskussion und Resumee
    Source
    nfd Information - Wissenschaft und Praxis. 49(1998) H.2, S.111-116
  8. Fugmann, R.: ¬Das Faule Ei des Kolumbus im Aslib-Cranfield Vergleich von Informationssystemen : Die erneute Betrachtung eines einflussreichen Experiments (2004) 0.02
    0.019761126 = product of:
      0.06587042 = sum of:
        0.019055564 = product of:
          0.038111128 = sum of:
            0.038111128 = weight(_text_:wissenschaft in 2364) [ClassicSimilarity], result of:
              0.038111128 = score(doc=2364,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.30698892 = fieldWeight in 2364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2364)
          0.5 = coord(1/2)
        0.020580528 = weight(_text_:und in 2364) [ClassicSimilarity], result of:
          0.020580528 = score(doc=2364,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.2968967 = fieldWeight in 2364, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2364)
        0.026234329 = weight(_text_:des in 2364) [ClassicSimilarity], result of:
          0.026234329 = score(doc=2364,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.302893 = fieldWeight in 2364, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2364)
      0.3 = coord(3/10)
    
    Abstract
    Der Beitrag gibt einen kritischen Rückblick auf die Experimente des ASLIB-CranfieldProjekts, mit dem die Leistungsfähigkeit verschiedenere Methoden der Inhaltserschließung verglichen wurden. Bemängelt wird die fehlende Unterscheidung zwischen Erinnerungsrecherche und Entdeckungsrecherche sowie die Wirklichkeitsferne der Versuchsbedingungen im ASLIB-Cranfield Projekt insbesondere Abwertung der Indexierung, Wirklichkeitsferne der Suchziele, die Empfehlung zum oberflächlichen Indexieren, die vermeintliche "gesetzmäßige Umkehrrelation" zwischen Ballast und Verlust sowie die Geringschätzung von Informationsverlust. Der Autor plädiert dafür, bei der Weiterentwicklung von Methoden der Inhaltserschließung die Erfahrungen aus der Vergangenheit nicht außer Acht zu lassen.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.4, S.211-220
  9. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.02
    0.019032786 = product of:
      0.06344262 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 261) [ClassicSimilarity], result of:
              0.043555573 = score(doc=261,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.5 = coord(1/2)
        0.03036497 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.03036497 = score(doc=261,freq=10.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.438048 = fieldWeight in 261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.011299865 = product of:
          0.033899594 = sum of:
            0.033899594 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.033899594 = score(doc=261,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
  10. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.02
    0.018411115 = product of:
      0.06137038 = sum of:
        0.019055564 = product of:
          0.038111128 = sum of:
            0.038111128 = weight(_text_:wissenschaft in 266) [ClassicSimilarity], result of:
              0.038111128 = score(doc=266,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.30698892 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
        0.023764348 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.023764348 = score(doc=266,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34282678 = fieldWeight in 266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.01855047 = weight(_text_:des in 266) [ClassicSimilarity], result of:
          0.01855047 = score(doc=266,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
      0.3 = coord(3/10)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  11. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.02
    0.017789561 = product of:
      0.0889478 = sum of:
        0.0654272 = weight(_text_:forschung in 1879) [ClassicSimilarity], result of:
          0.0654272 = score(doc=1879,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 1879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.023520604 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.023520604 = score(doc=1879,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.2 = coord(2/10)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  12. Kaltenborn, K.-F.: Endnutzerrecherchen in der CD-ROM-Datenbank Medline : T.1: Evaluations- und Benutzerforschung über Nutzungscharakteristika, Bewertung der Rechercheergebnisse und künftige Informationsgewinnung; T.2: Evaluations- und Benutzerforschung über Recherchequalität und Nutzer-Computer/Datenbank-Interaktion (1991) 0.02
    0.016705915 = product of:
      0.055686384 = sum of:
        0.0109792445 = product of:
          0.03293773 = sum of:
            0.03293773 = weight(_text_:f in 5105) [ClassicSimilarity], result of:
              0.03293773 = score(doc=5105,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26422277 = fieldWeight in 5105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5105)
          0.33333334 = coord(1/3)
        0.028806739 = weight(_text_:und in 5105) [ClassicSimilarity], result of:
          0.028806739 = score(doc=5105,freq=16.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41556883 = fieldWeight in 5105, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5105)
        0.015900403 = weight(_text_:des in 5105) [ClassicSimilarity], result of:
          0.015900403 = score(doc=5105,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 5105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5105)
      0.3 = coord(3/10)
    
    Abstract
    Die Einführung von CD-ROM Datenbanken als neue Informationstechnologie hat die Formen der Informationsgewinnung in bestimmten wissenschaftlichen Fachgebieten grundlegend geändert. Der Beitrag berichtet über Ergebnisse wissenschaftlicher Begleitforschung bei Endnutzerrecherchen in der CD-ROM-Version der Datenbank MEDLINE. Hierzu wurden drei verschiedene Erhebungen durchgeführt. Hiernach ist die überwiegende Zahl der Endnutzer (89,3%) mit dem jeweiligen Rechercheresultat zufrieden, wobei Benutzer mit geringer Rechercheerfahrung eine höhere Zufriedenheitsrate erreichen als Benutzer mit umfangreicheren Recherchekenntnissen. Die Gründe zur Nutzung von CD-ROM-Systemen resultieren voriwegend aus der klinischen Alltagsroutine oder täglichen Forschungspraxis, während vermittelte Online-Literatursuchen tendenziell häufiger im Zusammenhang mit einmaligen Ereignissen der wissenschaftlichen Aus- und Weiterbildung stehen. Die selbständige CD-ROM Literaturrecherche stellt für die befragten Ärzte und Wissenschaftler die bevorzugte Methode der Informationsgewinnung dar. Die analysierten Endnutzerrecherchen weisen allerdings Fehler und Defizite hinsichtlich einer optimalen Suchstrategie auf, die zu unbemerktn Informationsverlusten und zu Fehlbeurteilungen des wissenschaftlichen Kenntnisstandes führen
  13. Jochum, F.; Weissmann, V.: Struktur und Elemente des Information Retrieval Experiments (1985) 0.02
    0.016513208 = product of:
      0.055044025 = sum of:
        0.014638993 = product of:
          0.043916978 = sum of:
            0.043916978 = weight(_text_:f in 114) [ClassicSimilarity], result of:
              0.043916978 = score(doc=114,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35229704 = fieldWeight in 114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=114)
          0.33333334 = coord(1/3)
        0.019204492 = weight(_text_:und in 114) [ClassicSimilarity], result of:
          0.019204492 = score(doc=114,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.27704588 = fieldWeight in 114, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=114)
        0.02120054 = weight(_text_:des in 114) [ClassicSimilarity], result of:
          0.02120054 = score(doc=114,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=114)
      0.3 = coord(3/10)
    
    Abstract
    Eine fundierte Untersuchung der Anforderungen an Experimente im Information Retrieval bedarf einer geeigneten Sprache, die es erlaubt, alle relevanten Aspekte adäquat zu beschreiben. Der Beitrag versucht, ein solches Begriffsgerüst zu entwickeln. Als grundlegende Begriffe dienen die 4 Kategorien: experimentelle Faktoren, situative Faktoren; Experimentalobjekte und Beobachtungsvariablen. Das Begriffsgerüst wird anhand praktischer Beispiele illustriert
  14. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.01650224 = product of:
      0.05500747 = sum of:
        0.01633334 = product of:
          0.03266668 = sum of:
            0.03266668 = weight(_text_:wissenschaft in 6386) [ClassicSimilarity], result of:
              0.03266668 = score(doc=6386,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26313335 = fieldWeight in 6386, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
        0.022773726 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.022773726 = score(doc=6386,freq=10.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015900403 = weight(_text_:des in 6386) [ClassicSimilarity], result of:
          0.015900403 = score(doc=6386,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.3 = coord(3/10)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  15. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.01
    0.012500124 = product of:
      0.06250062 = sum of:
        0.026946237 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.026946237 = score(doc=1476,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.035554383 = weight(_text_:des in 1476) [ClassicSimilarity], result of:
          0.035554383 = score(doc=1476,freq=10.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.41049933 = fieldWeight in 1476, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.2 = coord(2/10)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
  16. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.01
    0.011180286 = product of:
      0.05590143 = sum of:
        0.029400755 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.029400755 = score(doc=1159,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.026500674 = weight(_text_:des in 1159) [ClassicSimilarity], result of:
          0.026500674 = score(doc=1159,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.2 = coord(2/10)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  17. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.01
    0.011008188 = product of:
      0.05504094 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 1734) [ClassicSimilarity], result of:
              0.043555573 = score(doc=1734,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1734)
          0.5 = coord(1/2)
        0.033263154 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.033263154 = score(doc=1734,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
      0.2 = coord(2/10)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  18. Kluck, M.; Winter, M.: Topic-Entwicklung und Relevanzbewertung bei GIRT : ein Werkstattbericht (2006) 0.01
    0.010892739 = product of:
      0.054463692 = sum of:
        0.033263154 = weight(_text_:und in 5967) [ClassicSimilarity], result of:
          0.033263154 = score(doc=5967,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.47985753 = fieldWeight in 5967, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
        0.02120054 = weight(_text_:des in 5967) [ClassicSimilarity], result of:
          0.02120054 = score(doc=5967,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 5967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5967)
      0.2 = coord(2/10)
    
    Abstract
    Der Zusammenhang zwischen Topic-Entwicklung und Relevanzbewertung wird anhand einiger Fallbeispiele aus der CLEF-Evaluierungskampagne 2005 diskutiert. Im fachspezifischen Retrievaltest für multilinguale Systeme wurden die Topics am Dokumentenbestand von GIRT entwickelt. Die Zusammenhänge von Topic-Formulierung und Interpretationsspielräumen bei der Relevanzbewertung werden untersucht.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  19. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.01
    0.010700539 = product of:
      0.053502694 = sum of:
        0.023520604 = weight(_text_:und in 2653) [ClassicSimilarity], result of:
          0.023520604 = score(doc=2653,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 2653, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.02998209 = weight(_text_:des in 2653) [ClassicSimilarity], result of:
          0.02998209 = score(doc=2653,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.34616345 = fieldWeight in 2653, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.2 = coord(2/10)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  20. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.01
    0.0103924945 = product of:
      0.051962472 = sum of:
        0.025461799 = weight(_text_:und in 479) [ClassicSimilarity], result of:
          0.025461799 = score(doc=479,freq=18.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3673144 = fieldWeight in 479, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
        0.026500674 = weight(_text_:des in 479) [ClassicSimilarity], result of:
          0.026500674 = score(doc=479,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 479, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.2 = coord(2/10)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
    Content
    Masterarbeit im Studiengang Informationswissenschaft und -management.