Search (7 results, page 1 of 1)

  • × author_ss:"Womser-Hacker, C."
  • × language_ss:"d"
  1. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.01
    0.008148543 = product of:
      0.073336884 = sum of:
        0.073336884 = product of:
          0.14667377 = sum of:
            0.14667377 = weight(_text_:bewertung in 2653) [ClassicSimilarity], result of:
              0.14667377 = score(doc=2653,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.78962374 = fieldWeight in 2653, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2653)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  2. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.01
    0.0071299747 = product of:
      0.06416977 = sum of:
        0.06416977 = product of:
          0.12833954 = sum of:
            0.12833954 = weight(_text_:bewertung in 266) [ClassicSimilarity], result of:
              0.12833954 = score(doc=266,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.69092077 = fieldWeight in 266, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
  3. Rittberger, M.; Köhne, B.; Graumann, S.; Högermeyer, C.; Lankenau, I.; Womser-Hacker, C.: ¬Das Projekt DECIDoc in Deutschland : Anpassung des Handbuchs und erste Evaluierung des Zertifizierungsverfahrens (2000) 0.01
    0.0050416538 = product of:
      0.045374885 = sum of:
        0.045374885 = product of:
          0.09074977 = sum of:
            0.09074977 = weight(_text_:bewertung in 4725) [ClassicSimilarity], result of:
              0.09074977 = score(doc=4725,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.48855478 = fieldWeight in 4725, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4725)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Das Projekt DECIDoc hat die Zertifizierung von Informationspezialisten in einem europaweiten Rahmen zum Ziel. In Deutschland hat die DGI die Projektleitung und -kooridination für DECIDoc. Nach der Diskussion der Argumente für eine Zertifizierung wird das Zertifizierungshandbuch vorgestellt und die Überarbeitungsschritte, die in Deutschland vorgenommen wurden, dargestellt. Dabei wird im einzelnen auf die Änderungen der Kompetenzniveaus, der Kompetenzbereiche und der Kompetenzgruppen eingegangen. Zur Validierung der Veränderungen wurde ein Zertifizierungsverfahren erarbeitet und anhand zweier Testzertifizierungen überprüft. Das Zulassungs- und Bewerbungsverfahren, die Zusammensetzung der zertifizierungskommission, das Fachgespräch, die Bewertung sowie die Erfahrungen aus den Testzertifizierungen werden detailliert besprochen
  4. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.01
    0.0050416538 = product of:
      0.045374885 = sum of:
        0.045374885 = product of:
          0.09074977 = sum of:
            0.09074977 = weight(_text_:bewertung in 4667) [ClassicSimilarity], result of:
              0.09074977 = score(doc=4667,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.48855478 = fieldWeight in 4667, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4667)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Innerhalb der informationswissenschaftlich geprägten Fachinformation nimmt die Patentdomäne eine gewisse Sonderstellung ein, da sie über eine Reihe von Besonderheiten verfügt, die es notwendig machen, die klassischen Methoden der Bewertung zu überarbeiten bzw. zu adaptieren. Dies belegen unter anderem die Ergebnisse des Intellectual Property Track, der seit 2009 im Rahmen der Evaluierungskampagne CLEF stattfindet. Der vorliegende Artikel beschreibt die innerhalb des zuvor genannten Track erzielten Ergebnisse. Darüber hinaus werden die Konsequenzen für die Evaluierung von Patent-Retrieval-Systemen herausgearbeitet.
  5. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.00
    0.004989943 = product of:
      0.04490949 = sum of:
        0.04490949 = product of:
          0.08981898 = sum of:
            0.08981898 = weight(_text_:bewertung in 2919) [ClassicSimilarity], result of:
              0.08981898 = score(doc=2919,freq=6.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.48354384 = fieldWeight in 2919, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2919)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
  6. Womser-Hacker, C.: Cross-Language Information Retrieval (CLIR) (2023) 0.00
    0.0033974003 = product of:
      0.030576602 = sum of:
        0.030576602 = product of:
          0.061153203 = sum of:
            0.061153203 = weight(_text_:seite in 806) [ClassicSimilarity], result of:
              0.061153203 = score(doc=806,freq=2.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3713015 = fieldWeight in 806, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=806)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Durch die ständig wachsende internationale Vernetzung ist auch bei der Suche nach Information seit langem eine intensive Entwicklung in Richtung Mehrsprachigkeit feststellbar. Diese wird meist von den Systemen und Technologien her betrachtet. Im informationellen Kontext ist auch die Seite der Nutzer*innen hinzuzuziehen, die etwa in Hinblick auf ihre Mehrsprachigkeit sehr unterschiedlich einzuschätzen sind. Kompetenzen in verschiedenen Sprachen sind eher die Regel als reiner Monolingualismus, der heute nur sehr selten vorzufinden ist. Die Nutzer*innen unterscheiden sich in den Niveaus ihrer Sprachkompetenz, die von rudimentärem Sprachverständnis bis hin zu muttersprachlichen Fähigkeiten reichen. Es wird zunehmend zur Gewohnheit und auch zur Notwendigkeit, auf multilinguale Kollektionen zuzugreifen und nach Information nicht nur in der Muttersprache zu suchen. Oft hängt dies auch davon ab, ob in beruflichen oder privaten Umgebungen mit entsprechenden Zielsetzungen gesucht wird. Information bleibt Information, auch wenn verschiedene Sprachen aufeinandertreffen, was z. B. für verschiedene mediale Formen von Informationsobjekten wie z. B. Bilder gilt.
  7. Burghardt, M.; Wolff, C.; Womser-Hacker, C.: Informationsinfrastruktur und informationswissenschaftliche Methoden in den digitalen Geisteswissenschaften (2015) 0.00
    0.002213322 = product of:
      0.019919898 = sum of:
        0.019919898 = product of:
          0.039839797 = sum of:
            0.039839797 = weight(_text_:22 in 1838) [ClassicSimilarity], result of:
              0.039839797 = score(doc=1838,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.38690117 = fieldWeight in 1838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1838)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    6.12.2015 17:22:08