Search (27 results, page 1 of 2)

  • × author_ss:"Womser-Hacker, C."
  1. Rittberger, M.; Köhne, B.; Graumann, S.; Högermeyer, C.; Lankenau, I.; Womser-Hacker, C.: ¬Das Projekt DECIDoc in Deutschland : Anpassung des Handbuchs und erste Evaluierung des Zertifizierungsverfahrens (2000) 0.03
    0.029042853 = product of:
      0.08712856 = sum of:
        0.04749451 = weight(_text_:und in 4725) [ClassicSimilarity], result of:
          0.04749451 = score(doc=4725,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4535172 = fieldWeight in 4725, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
        0.03963405 = weight(_text_:des in 4725) [ClassicSimilarity], result of:
          0.03963405 = score(doc=4725,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 4725, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt DECIDoc hat die Zertifizierung von Informationspezialisten in einem europaweiten Rahmen zum Ziel. In Deutschland hat die DGI die Projektleitung und -kooridination für DECIDoc. Nach der Diskussion der Argumente für eine Zertifizierung wird das Zertifizierungshandbuch vorgestellt und die Überarbeitungsschritte, die in Deutschland vorgenommen wurden, dargestellt. Dabei wird im einzelnen auf die Änderungen der Kompetenzniveaus, der Kompetenzbereiche und der Kompetenzgruppen eingegangen. Zur Validierung der Veränderungen wurde ein Zertifizierungsverfahren erarbeitet und anhand zweier Testzertifizierungen überprüft. Das Zulassungs- und Bewerbungsverfahren, die Zusammensetzung der zertifizierungskommission, das Fachgespräch, die Bewertung sowie die Erfahrungen aus den Testzertifizierungen werden detailliert besprochen
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.3, S.147-156
  2. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.03
    0.029042853 = product of:
      0.08712856 = sum of:
        0.04749451 = weight(_text_:und in 1393) [ClassicSimilarity], result of:
          0.04749451 = score(doc=1393,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4535172 = fieldWeight in 1393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1393)
        0.03963405 = weight(_text_:des in 1393) [ClassicSimilarity], result of:
          0.03963405 = score(doc=1393,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 1393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1393)
      0.33333334 = coord(2/6)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
  3. Womser-Hacker, C.: Informationswissenschaftliche Perspektiven des Information Retrieval (2023) 0.03
    0.028755983 = product of:
      0.08626795 = sum of:
        0.04623151 = weight(_text_:und in 798) [ClassicSimilarity], result of:
          0.04623151 = score(doc=798,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.441457 = fieldWeight in 798, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=798)
        0.040036436 = weight(_text_:des in 798) [ClassicSimilarity], result of:
          0.040036436 = score(doc=798,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 798, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=798)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit Information Retrieval (IR) sind in Forschung und Entwicklung in unterschiedlicher Breite und aus verschiedenen Perspektiven mehrere Disziplinen befasst. Die verschiedenen Ausrichtungen sind wichtig, da nur in ihrer Verknüpfung eine Gesamtschau des IR vermittelt werden kann. Die Informatik verfolgt einen stärker systemgetriebenen, technologischen Ansatz des IR und stellt Algorithmen und Implementationen in den Vordergrund, während für die Informationswissenschaft die Benutzer*innen in ihren vielschichtigen Kontexten den Schwerpunkt bilden. Deren Eigenschaften (fachlicher Hintergrund, Domänenzugehörigkeit, Expertise etc.) und Zielsetzungen, die durch das IR verfolgt werden, spielen im Interaktionsprozess zwischen Mensch und System eine zentrale Rolle. Auch wird intensiv der Frage nachgegangen, wie sich Benutzer*innen in diesen Prozessen verhalten und aus welchen Gründen sie verschiedene Systeme in Anspruch nehmen. Da ein Großteil des heutigen Wissens nach wie vor in Texten repräsentiert ist, ist eine weitere Disziplin - nämlich die Computerlinguistik/Sprachtechnologie für das IR von Bedeutung. Zusätzlich kommen aber auch visuelle und auditive Wissensobjekte immer stärker zum Tragen und werden aufgrund ihrer anwachsenden Menge immer wichtiger für das IR. Ein neues Fachgebiet ist die Data Science, die auf altbekannten Konzepten aus Statistik und Wahrscheinlichkeitsrechnung aufsetzt, auf den Daten operiert und auch traditionelles IR-Wissen für die Zusammenführung von strukturierten Fakten und unstrukturierten Texten nutzt. Hier soll die informationswissenschaftliche Perspektive im Vordergrund stehen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Womser-Hacker, C.: Was ist Informationswissenschaft? : die Hildesheimer Antwort auf aktuelle Herausforderungen der globalisierten Informationsgesellschaft (2010) 0.03
    0.02742738 = product of:
      0.08228214 = sum of:
        0.050252996 = weight(_text_:und in 4010) [ClassicSimilarity], result of:
          0.050252996 = score(doc=4010,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.47985753 = fieldWeight in 4010, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4010)
        0.03202915 = weight(_text_:des in 4010) [ClassicSimilarity], result of:
          0.03202915 = score(doc=4010,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 4010, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4010)
      0.33333334 = coord(2/6)
    
    Abstract
    Der folgende Beitrag ordnet die Informationswissenschaft in den nationalen und internationalen Kanon der Wissenschaftsdisziplinen ein und zeigt deren Besonderheiten und Wurzeln auf. Im Zentrum steht die Informationswissenschaft an der Universität Hildesheim, deren Schwerpunkte sich inhaltlich im Bereic der internationalen Mensch-Maschine-Interaktion und des Cross-Language Information Retrieval ansiedeln. Kurz werden auch neuere Forschungsgebiete und -methoden angesprochen. Der Beitrag schließt mit einem Blick auf zukünftige Entwicklungsperspektiven.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.331-332
  5. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.03
    0.02694343 = product of:
      0.08083029 = sum of:
        0.035534237 = weight(_text_:und in 2653) [ClassicSimilarity], result of:
          0.035534237 = score(doc=2653,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 2653, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.045296054 = weight(_text_:des in 2653) [ClassicSimilarity], result of:
          0.045296054 = score(doc=2653,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 2653, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.33333334 = coord(2/6)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  6. Womser-Hacker, C.: Zur Rolle von Eigennamen im Cross-Language Information Retrieval (2006) 0.03
    0.02694343 = product of:
      0.08083029 = sum of:
        0.035534237 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.035534237 = score(doc=6073,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.045296054 = weight(_text_:des in 6073) [ClassicSimilarity], result of:
          0.045296054 = score(doc=6073,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 6073, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Mittelpunkt des vorliegenden Beitrags steht das Cross-Language Information Retrieval, das mit seinen sprachübergreifenden Funktionen zur Minderung von Sprachbarrieren bei der Informationssuche beiträgt. Hier sollen insbesondere die Eigennamen untersucht werden. Evaluierungsstudien haben gezeigt, dass ihnen aufgrund ihrer besonderen Eigenschaften eine wichtige Rolle bei der Identifikation von relevanten Dokumenten zukommt. Verfahren für die Optimierung des mehrsprachigen Retrievalprozesses werden angesprochen.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  7. Burghardt, M.; Wolff, C.; Womser-Hacker, C.: Informationsinfrastruktur und informationswissenschaftliche Methoden in den digitalen Geisteswissenschaften (2015) 0.03
    0.025475621 = product of:
      0.07642686 = sum of:
        0.044417795 = weight(_text_:und in 1838) [ClassicSimilarity], result of:
          0.044417795 = score(doc=1838,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.42413816 = fieldWeight in 1838, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1838)
        0.03200907 = product of:
          0.06401814 = sum of:
            0.06401814 = weight(_text_:22 in 1838) [ClassicSimilarity], result of:
              0.06401814 = score(doc=1838,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.38690117 = fieldWeight in 1838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1838)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das vorliegende Themenheft setzt sich mit dem Verhältnis von Informationsinfrastruktur, den Digital Humanities und der Informationswissenschaft auseinander.
    Date
    6.12.2015 17:22:08
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.5/6, S.285-286
  8. Mandl, T.; Womser-Hacker, C.: ¬Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken (2000) 0.03
    0.02517884 = product of:
      0.07553652 = sum of:
        0.035902474 = weight(_text_:und in 5481) [ClassicSimilarity], result of:
          0.035902474 = score(doc=5481,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 5481, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5481)
        0.03963405 = weight(_text_:des in 5481) [ClassicSimilarity], result of:
          0.03963405 = score(doc=5481,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 5481, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5481)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Beitrag wird ein adaptives Information-Retrieval-Modell im Kontext Digitaler Bibliotheken vorgestellt, das während des Informationsprozesses lernt, Beziehungen zwischen Repräsentationsformen und Informations-Objekten herzustellen. Die aus großen Evaluierungsstudien abgeleiteten Erkenntnisse, dass Relevance Feedback und Polyrepräsentation echte Mehrwerte darstellen und zu besserer Retrievalqualität führen, dienen dabei als Grundlage. Um eine stärkere Adaption zu leisten, wird das Modell um Strategien erweitert, die Benutzer-, Dokument- und Anfrageeigenschaften einbeziehen. Im Rahmen Digitaler Bibliotheken spielen insbesondere Transformationen unterschiedlich erschlossener Objekte eine wichtige Rolle zur Kompensation semantischer Heterogenität. Auch in diesem Rahmen kann das adaptive Information-Retrieval-Modell eingesetzt werden
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  9. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.02
    0.024642829 = product of:
      0.07392848 = sum of:
        0.025386883 = weight(_text_:und in 4667) [ClassicSimilarity], result of:
          0.025386883 = score(doc=4667,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24241515 = fieldWeight in 4667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.0485416 = weight(_text_:des in 4667) [ClassicSimilarity], result of:
          0.0485416 = score(doc=4667,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3709667 = fieldWeight in 4667, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
      0.33333334 = coord(2/6)
    
    Abstract
    Innerhalb der informationswissenschaftlich geprägten Fachinformation nimmt die Patentdomäne eine gewisse Sonderstellung ein, da sie über eine Reihe von Besonderheiten verfügt, die es notwendig machen, die klassischen Methoden der Bewertung zu überarbeiten bzw. zu adaptieren. Dies belegen unter anderem die Ergebnisse des Intellectual Property Track, der seit 2009 im Rahmen der Evaluierungskampagne CLEF stattfindet. Der vorliegende Artikel beschreibt die innerhalb des zuvor genannten Track erzielten Ergebnisse. Darüber hinaus werden die Konsequenzen für die Evaluierung von Patent-Retrieval-Systemen herausgearbeitet.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  10. Thurmair, G.; Womser-Hacker, C.: Multilingualität im wissensbasierten Faktenretrieval (1996) 0.02
    0.021673646 = product of:
      0.065020934 = sum of:
        0.025386883 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.025386883 = score(doc=4207,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24241515 = fieldWeight in 4207, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4207)
        0.03963405 = weight(_text_:des in 4207) [ClassicSimilarity], result of:
          0.03963405 = score(doc=4207,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 4207, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4207)
      0.33333334 = coord(2/6)
    
    Abstract
    Der vorliegende Beitrag befaßt sich mit dem Sprachenproblem im Bereich wissensbasierter Faktenretrievalsysteme. Diskutiert werden die Probleme der Adaption eines Systems an multilinguale Umgebungen. Es wird gezeigt, daß Multiligualität nicht nur bei Objekten in Textform eine Rolle spielt, sondern auch im Bereich des Faktentretrieval. Die Problematik erfährt durch die Wissensbasiertheit eine Steigerung. Für die Implementierung derartiger Systeme wurden Richtlinien dargestellt, welche die verschiedenen Systemkomponenten und auch softwareergonomische Aspekte einbezieht
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  11. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.02
    0.021309327 = product of:
      0.06392798 = sum of:
        0.035902474 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.035902474 = score(doc=266,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.028025504 = weight(_text_:des in 266) [ClassicSimilarity], result of:
          0.028025504 = score(doc=266,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
      0.33333334 = coord(2/6)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  12. Hanke, P.; Mandl, T.; Womser-Hacker, C.: ¬Ein "Virtuelles Bibliotheksregal" für die Informationswissenschaft als Anwendungsfall semantischer Heterogenität (2002) 0.02
    0.020347577 = product of:
      0.06104273 = sum of:
        0.029013582 = weight(_text_:und in 4858) [ClassicSimilarity], result of:
          0.029013582 = score(doc=4858,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27704588 = fieldWeight in 4858, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4858)
        0.03202915 = weight(_text_:des in 4858) [ClassicSimilarity], result of:
          0.03202915 = score(doc=4858,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 4858, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4858)
      0.33333334 = coord(2/6)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  13. Braschler, M.; Heuwing, B.; Mandl, T.; Womser-Hacker, C.; Herget, J.; Schäuble, P.; Stuker, J.: Evaluation der Suchfunktion deutscher Unternehmenswebsites (2013) 0.02
    0.019475913 = product of:
      0.058427736 = sum of:
        0.034405876 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.034405876 = score(doc=942,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.328536 = fieldWeight in 942, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.02402186 = weight(_text_:des in 942) [ClassicSimilarity], result of:
          0.02402186 = score(doc=942,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 942, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Beitrag stellt eine umfangreiche Evaluation der Suchfunktionen von 35 deutschen Unternehmenswebsites vor. In der Studie soll die vom Nutzer wahrgenommene Qualität einer Website-Suche erfasst werden, und nicht die technische Funktionalität der jeweiligen Systeme. In leitfaden-basierten Evaluationen werden die Bereiche Suchindex, Anfrage- / Dokumentenvergleich, Benutzerinteraktion und Suchergebnisse untersucht. Die Zusammenfassung der Ergebnisse der Einzeltests in diesen Kategorien ermöglicht eine qualitative Beurteilung und Aussagen über die Positionierung von Ergebnissen relativ zum Gesamtfeld. Die Ergebnisse zeigen, dass bei Internetauftritten die Suchfunktion auf Websites oft zum Problem werden kann. Die Benutzer haben häufig Anlass, die Website zu verlassen, ohne ihr Ziel erreicht zu haben. Probleme zeigten sich bei der Vollständigkeit und Aktualität des Suchindexes sowie bei der Pflege und Präsentation ergänzender .Metadaten. Zum Vergleich werden die Untersuchungen auch anhand der Google-Sitesearch durchgeführt. Dabei zeigt sich, dass eine genaue Kenntnis der eigenen Daten zu besseren Ergebnissen führen kann, dies nutzen Unternehmen aber nicht immer aus.
  14. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.02
    0.017182937 = product of:
      0.05154881 = sum of:
        0.035534237 = weight(_text_:und in 2919) [ClassicSimilarity], result of:
          0.035534237 = score(doc=2919,freq=24.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 2919, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
        0.016014574 = weight(_text_:des in 2919) [ClassicSimilarity], result of:
          0.016014574 = score(doc=2919,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.33333334 = coord(2/6)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  15. Burghardt, M.; Wolff, C.; Womser-Hacker, C.: Informationswissenschaft und Digital Humanities (2015) 0.01
    0.009046573 = product of:
      0.05427944 = sum of:
        0.05427944 = weight(_text_:und in 2403) [ClassicSimilarity], result of:
          0.05427944 = score(doc=2403,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.51830536 = fieldWeight in 2403, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2403)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieser Beitrag beschreibt das Verhältnis zwischen Informationswissenschaft und Digital Humanities und zeigt dabei viele Anlnüpfungspunkte und Parallelen zwischen den beiden Disziplinen auf. Weiterhin wird am Beispiel ausgewählter Forschungsthemen und -methoden der Informationswissenschaft aufgezeigt, wo das Fach Angebote an die Geisteswissenschaft machen kann, um innovative Digital Humanities-Projekte zu befördern.
    Footnote
    Beitrag im Rahmen eines Themenhefts zu: "Informationsinfrastruktur und informationswissenschaftliche Methoden in den digitalen Geisteswissenschaften".
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.5/6, S.287-294
  16. Heuwing, B.; Womser-Hacker, C.: Zwischen Beobachtung und Partizipation : nutzerzentrierte Methoden für eine Bedarfsanalyse in der digitalen Geschichtswissenschaft (2015) 0.01
    0.007402966 = product of:
      0.044417795 = sum of:
        0.044417795 = weight(_text_:und in 2405) [ClassicSimilarity], result of:
          0.044417795 = score(doc=2405,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.42413816 = fieldWeight in 2405, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2405)
      0.16666667 = coord(1/6)
    
    Footnote
    Beitrag im Rahmen eines Themenhefts zu: "Informationsinfrastruktur und informationswissenschaftliche Methoden in den digitalen Geisteswissenschaften".
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.5/6, S.335-344
  17. Womser-Hacker, C.: ¬'Die Qual der Wahl' : Evaluierungskriterien zur Auswahl adäquater Retrievalsysteme (1997) 0.01
    0.0072533954 = product of:
      0.043520372 = sum of:
        0.043520372 = weight(_text_:und in 1052) [ClassicSimilarity], result of:
          0.043520372 = score(doc=1052,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 1052, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1052)
      0.16666667 = coord(1/6)
    
    Source
    Information und Dokumentation: Qualität und Qualifikation. Deutscher Dokumentartag 1997, Universität Regensburg, 24.-26.9.1997. Hrsg.: M. Ockenfeld u. G.J. Mantwill
  18. Schneider, C.; Womser-Hacker, C.: Inhaltserschließungssysteme für Patenttexte : Test und Systemvergleich im Projekt PADOK (1986) 0.01
    0.0072533954 = product of:
      0.043520372 = sum of:
        0.043520372 = weight(_text_:und in 2648) [ClassicSimilarity], result of:
          0.043520372 = score(doc=2648,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 2648, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2648)
      0.16666667 = coord(1/6)
    
    Source
    Deutscher Dokumentartag 1986, Freiburg, 8.-10.10.1986: Bedarfsorientierte Fachinformation: Methoden und Techniken am Arbeitsplatz. Bearb.: H. Strohl-Goebel
  19. Hubert, M.; Griesbaum, J.; Womser-Hacker, C.: Usability von Browsererweiterungen zum Schutz vor Tracking (2020) 0.01
    0.006690032 = product of:
      0.04014019 = sum of:
        0.04014019 = weight(_text_:und in 5866) [ClassicSimilarity], result of:
          0.04014019 = score(doc=5866,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38329202 = fieldWeight in 5866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5866)
      0.16666667 = coord(1/6)
    
    Abstract
    Browsererweiterungen zum Schutz vor Tracking stellen beliebte Werkzeuge zum Schutz der Privatsphäre von Nutzerinnen und Nutzern dar. Ihre tatsächliche Effektivität ist in hohem Maße von ihrer Usability abhängig, da diese bestimmt, in welchem Ausmaß diese Werkzeuge effektiv, effizient und zufriedenstellend genutzt werden können. Die vorliegende Untersuchung prüft die Gebrauchstauglichkeit vier solcher Browsererweiterungen mit Hilfe von Benutzertests. Die Ergebnisse zeigen, dass die Add-ons auch heutzutage noch eine Vielzahl an Usability-Mängeln aufweisen. Kernprobleme stellen insbesondere die mangelnde Verständlichkeit und die fehlende Führung und Unterstützung der Nutzenden dar.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
  20. Womser-Hacker, C.; Mandl. T.: Information Seeking Behaviour (ISB) (2013) 0.01
    0.006044496 = product of:
      0.036266975 = sum of:
        0.036266975 = weight(_text_:und in 709) [ClassicSimilarity], result of:
          0.036266975 = score(doc=709,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=709)
      0.16666667 = coord(1/6)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried