Search (4 results, page 1 of 1)

  • × author_ss:"Womser-Hacker, C."
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.00
    0.0031548555 = product of:
      0.022083987 = sum of:
        0.022083987 = product of:
          0.055209965 = sum of:
            0.032752953 = weight(_text_:retrieval in 2919) [ClassicSimilarity], result of:
              0.032752953 = score(doc=2919,freq=10.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.29892567 = fieldWeight in 2919, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2919)
            0.022457011 = weight(_text_:system in 2919) [ClassicSimilarity], result of:
              0.022457011 = score(doc=2919,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.19684705 = fieldWeight in 2919, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2919)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
  2. Mandl, T.; Womser-Hacker, C.: ¬Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken (2000) 0.00
    0.0012685166 = product of:
      0.008879616 = sum of:
        0.008879616 = product of:
          0.044398077 = sum of:
            0.044398077 = weight(_text_:retrieval in 5481) [ClassicSimilarity], result of:
              0.044398077 = score(doc=5481,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.40520695 = fieldWeight in 5481, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5481)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    In diesem Beitrag wird ein adaptives Information-Retrieval-Modell im Kontext Digitaler Bibliotheken vorgestellt, das während des Informationsprozesses lernt, Beziehungen zwischen Repräsentationsformen und Informations-Objekten herzustellen. Die aus großen Evaluierungsstudien abgeleiteten Erkenntnisse, dass Relevance Feedback und Polyrepräsentation echte Mehrwerte darstellen und zu besserer Retrievalqualität führen, dienen dabei als Grundlage. Um eine stärkere Adaption zu leisten, wird das Modell um Strategien erweitert, die Benutzer-, Dokument- und Anfrageeigenschaften einbeziehen. Im Rahmen Digitaler Bibliotheken spielen insbesondere Transformationen unterschiedlich erschlossener Objekte eine wichtige Rolle zur Kompensation semantischer Heterogenität. Auch in diesem Rahmen kann das adaptive Information-Retrieval-Modell eingesetzt werden
  3. Womser-Hacker, C.: Zur Rolle von Eigennamen im Cross-Language Information Retrieval (2006) 0.00
    0.0011837021 = product of:
      0.008285915 = sum of:
        0.008285915 = product of:
          0.04142957 = sum of:
            0.04142957 = weight(_text_:retrieval in 6073) [ClassicSimilarity], result of:
              0.04142957 = score(doc=6073,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.37811437 = fieldWeight in 6073, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6073)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Im Mittelpunkt des vorliegenden Beitrags steht das Cross-Language Information Retrieval, das mit seinen sprachübergreifenden Funktionen zur Minderung von Sprachbarrieren bei der Informationssuche beiträgt. Hier sollen insbesondere die Eigennamen untersucht werden. Evaluierungsstudien haben gezeigt, dass ihnen aufgrund ihrer besonderen Eigenschaften eine wichtige Rolle bei der Identifikation von relevanten Dokumenten zukommt. Verfahren für die Optimierung des mehrsprachigen Retrievalprozesses werden angesprochen.
  4. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.00
    0.0010357393 = product of:
      0.007250175 = sum of:
        0.007250175 = product of:
          0.036250874 = sum of:
            0.036250874 = weight(_text_:retrieval in 266) [ClassicSimilarity], result of:
              0.036250874 = score(doc=266,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.33085006 = fieldWeight in 266, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=266)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals