Search (149 results, page 2 of 8)

  • × theme_ss:"Retrievalstudien"
  1. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.01
    0.010700539 = product of:
      0.053502694 = sum of:
        0.023520604 = weight(_text_:und in 2653) [ClassicSimilarity], result of:
          0.023520604 = score(doc=2653,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 2653, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.02998209 = weight(_text_:des in 2653) [ClassicSimilarity], result of:
          0.02998209 = score(doc=2653,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.34616345 = fieldWeight in 2653, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.2 = coord(2/10)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  2. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.01
    0.0103924945 = product of:
      0.051962472 = sum of:
        0.025461799 = weight(_text_:und in 479) [ClassicSimilarity], result of:
          0.025461799 = score(doc=479,freq=18.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3673144 = fieldWeight in 479, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
        0.026500674 = weight(_text_:des in 479) [ClassicSimilarity], result of:
          0.026500674 = score(doc=479,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 479, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.2 = coord(2/10)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
    Content
    Masterarbeit im Studiengang Informationswissenschaft und -management.
  3. Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998) 0.01
    0.009999736 = product of:
      0.04999868 = sum of:
        0.023764348 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.023764348 = score(doc=3577,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34282678 = fieldWeight in 3577, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
        0.026234329 = weight(_text_:des in 3577) [ClassicSimilarity], result of:
          0.026234329 = score(doc=3577,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.302893 = fieldWeight in 3577, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
      0.2 = coord(2/10)
    
    Abstract
    Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.14
  4. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.01
    0.009807046 = product of:
      0.04903523 = sum of:
        0.019704357 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.019704357 = score(doc=494,freq=22.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.029330872 = weight(_text_:des in 494) [ClassicSimilarity], result of:
          0.029330872 = score(doc=494,freq=20.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.3386447 = fieldWeight in 494, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.2 = coord(2/10)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  5. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.01
    0.009787408 = product of:
      0.048937038 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 3275) [ClassicSimilarity], result of:
              0.043555573 = score(doc=3275,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 3275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3275)
          0.5 = coord(1/2)
        0.027159253 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.027159253 = score(doc=3275,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
      0.2 = coord(2/10)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  6. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.01
    0.009786858 = product of:
      0.048934292 = sum of:
        0.016803931 = weight(_text_:und in 4667) [ClassicSimilarity], result of:
          0.016803931 = score(doc=4667,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24241515 = fieldWeight in 4667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.03213036 = weight(_text_:des in 4667) [ClassicSimilarity], result of:
          0.03213036 = score(doc=4667,freq=6.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.3709667 = fieldWeight in 4667, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
      0.2 = coord(2/10)
    
    Abstract
    Innerhalb der informationswissenschaftlich geprägten Fachinformation nimmt die Patentdomäne eine gewisse Sonderstellung ein, da sie über eine Reihe von Besonderheiten verfügt, die es notwendig machen, die klassischen Methoden der Bewertung zu überarbeiten bzw. zu adaptieren. Dies belegen unter anderem die Ergebnisse des Intellectual Property Track, der seit 2009 im Rahmen der Evaluierungskampagne CLEF stattfindet. Der vorliegende Artikel beschreibt die innerhalb des zuvor genannten Track erzielten Ergebnisse. Darüber hinaus werden die Konsequenzen für die Evaluierung von Patent-Retrieval-Systemen herausgearbeitet.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  7. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.01
    0.009531147 = product of:
      0.04765573 = sum of:
        0.029105263 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.029105263 = score(doc=4310,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.01855047 = weight(_text_:des in 4310) [ClassicSimilarity], result of:
          0.01855047 = score(doc=4310,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
      0.2 = coord(2/10)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
    Content
    Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
    Imprint
    Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften
  8. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.01
    0.009377577 = product of:
      0.046887886 = sum of:
        0.02814908 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.02814908 = score(doc=4283,freq=22.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.018738806 = weight(_text_:des in 4283) [ClassicSimilarity], result of:
          0.018738806 = score(doc=4283,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.21635216 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.2 = coord(2/10)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  9. Bauer, G.; Schneider, C.: PADOK-II : Untersuchungen zur Volltextproblematik und zur interpretativen Analyse der Retrievalprotokolle (1990) 0.01
    0.008944228 = product of:
      0.04472114 = sum of:
        0.023520604 = weight(_text_:und in 4164) [ClassicSimilarity], result of:
          0.023520604 = score(doc=4164,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 4164, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4164)
        0.02120054 = weight(_text_:des in 4164) [ClassicSimilarity], result of:
          0.02120054 = score(doc=4164,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 4164, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4164)
      0.2 = coord(2/10)
    
    Abstract
    Dieser Beitrag baut auf dem Bericht über das methodische Konzept, über die Durchführung und die Ergebnisse der PADOK-II-Retrievaltests auf (Krause/Wormser-Hacker). Hier werden die Ergebnisse von Zusatztests zum Einfluß des Umfangs der zugrundeliegenden Dokumente (Volltext vs. Titel+Abstract) beschrieben, die eine deutliche Beeinträchtigung der Recall-Werte bei reduziertem Dokumentenumfang zeigen. Zur interpretativen Analyse der Retrievalprotokolle werden vor allem die methodische Einbindung, Ansatzpunkte der Analyse und erste Ergebnisse vorgestelt.
  10. Chevallet, J.-P.; Bruandet, M.F.: Impact de l'utilisation de multi terms sur la qualité des résponses dùn système de recherche d'information a indexation automatique (1999) 0.01
    0.008924217 = product of:
      0.044621084 = sum of:
        0.014638993 = product of:
          0.043916978 = sum of:
            0.043916978 = weight(_text_:f in 6253) [ClassicSimilarity], result of:
              0.043916978 = score(doc=6253,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35229704 = fieldWeight in 6253, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6253)
          0.33333334 = coord(1/3)
        0.02998209 = weight(_text_:des in 6253) [ClassicSimilarity], result of:
          0.02998209 = score(doc=6253,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.34616345 = fieldWeight in 6253, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6253)
      0.2 = coord(2/10)
    
    Language
    f
    Source
    Organisation des connaissances en vue de leur intégration dans les systèmes de représentation et de recherche d'information. Ed.: J. Maniez, et al
  11. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.01
    0.008707823 = product of:
      0.043539114 = sum of:
        0.023764348 = weight(_text_:und in 262) [ClassicSimilarity], result of:
          0.023764348 = score(doc=262,freq=2.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34282678 = fieldWeight in 262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=262)
        0.019774765 = product of:
          0.05932429 = sum of:
            0.05932429 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.05932429 = score(doc=262,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Date
    20.10.2000 12:22:23
    Source
    Deutscher Dokumentartag 1983, Göttingen, 3.-7.10.1983: Fachinformation und Bildschirmtext. Bearb.: H. Strohl-Goebel
  12. Geist, K.: Qualität und Relevanz von bildungsbezogenen Suchergebnissen bei der Suche im Web (2012) 0.01
    0.008569329 = product of:
      0.042846642 = sum of:
        0.026946237 = weight(_text_:und in 570) [ClassicSimilarity], result of:
          0.026946237 = score(doc=570,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.38872904 = fieldWeight in 570, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=570)
        0.015900403 = weight(_text_:des in 570) [ClassicSimilarity], result of:
          0.015900403 = score(doc=570,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=570)
      0.2 = coord(2/10)
    
    Abstract
    Websuchmaschinen haben sich sowohl im privaten als auch im professionellen Bereich zu den bedeutsamsten Recherchewerkzeugen der Gegenwart entwickelt. Sie durchsuchen die Weiten des Internets, um verfügbare Dokumente zu erfassen und dem Benutzer auf Anfrage präsentieren zu können. Mit den gefundenen Dokumenten beabsichtigen sie vielfältige Informationsbedürfnisse zu befriedigen. Ihr Erfolg basiert zu einem großen Teil auf der Fähigkeit, relevante Dokumente zu spezifischen Suchanfragen zu liefern. Um verschiedene Systeme miteinander vergleichen zu können, werden daher häufig Relevanzevaluationen durchgeführt. Dieser Artikel beschreibt in Auszügen die Ergebnisse eines Retrievaltests, der Qualität und Relevanz informationsorientierter Suchanfragen zum Thema Bildung untersucht. Studentische Nutzer beurteilten dabei die Suchergebnisse von Google hinsichtlich ihrer Relevanz, Vertrauenswürdigkeit, Verständlichkeit und Aktualität. Die Untersuchung wurde im Rahmen mei­ner Magisterarbeit durchgeführt, die mit dem VFI-Förderungspreis 2011 ausgezeichnet wurde, und war eingebunden in ein Forschungsprojekt an der Universität Hildesheim zu bildungsbezogener Informationssuche im Internet (BISIBS). Ich bedanke mich herzlich bei allen, die an der Entstehung dieser Arbeit beteiligt waren und bei der Preis-Kommission für die Auszeichnung.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.261-276
  13. Wartena, C.; Golub, K.: Evaluierung von Verschlagwortung im Kontext des Information Retrievals (2021) 0.01
    0.008279883 = product of:
      0.041399416 = sum of:
        0.02814908 = weight(_text_:und in 376) [ClassicSimilarity], result of:
          0.02814908 = score(doc=376,freq=22.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.40608138 = fieldWeight in 376, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
        0.013250337 = weight(_text_:des in 376) [ClassicSimilarity], result of:
          0.013250337 = score(doc=376,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.15298408 = fieldWeight in 376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
      0.2 = coord(2/10)
    
    Abstract
    Dieser Beitrag möchte einen Überblick über die in der Literatur diskutierten Möglichkeiten, Herausforderungen und Grenzen geben, Retrieval als eine extrinsische Evaluierungsmethode für die Ergebnisse verbaler Sacherschließung zu nutzen. Die inhaltliche Erschließung im Allgemeinen und die Verschlagwortung im Besonderen können intrinsisch oder extrinsisch evaluiert werden. Die intrinsische Evaluierung bezieht sich auf Eigenschaften der Erschließung, von denen vermutet wird, dass sie geeignete Indikatoren für die Qualität der Erschließung sind, wie formale Einheitlichkeit (im Hinblick auf die Anzahl zugewiesener Deskriptoren pro Dokument, auf die Granularität usw.), Konsistenz oder Übereinstimmung der Ergebnisse verschiedener Erschließer:innen. Bei einer extrinsischen Evaluierung geht es darum, die Qualität der gewählten Deskriptoren daran zu messen, wie gut sie sich tatsächlich bei der Suche bewähren. Obwohl die extrinsische Evaluierung direktere Auskunft darüber gibt, ob die Erschließung ihren Zweck erfüllt, und daher den Vorzug verdienen sollte, ist sie kompliziert und oft problematisch. In einem Retrievalsystem greifen verschiedene Algorithmen und Datenquellen in vielschichtiger Weise ineinander und interagieren bei der Evaluierung darüber hinaus noch mit Nutzer:innen und Rechercheaufgaben. Die Evaluierung einer Komponente im System kann nicht einfach dadurch vorgenommen werden, dass man sie austauscht und mit einer anderen Komponente vergleicht, da die gleiche Ressource oder der gleiche Algorithmus sich in unterschiedlichen Umgebungen unterschiedlich verhalten kann. Wir werden relevante Evaluierungsansätze vorstellen und diskutieren, und zum Abschluss einige Empfehlungen für die Evaluierung von Verschlagwortung im Kontext von Retrieval geben.
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Heinz, M.; Voigt, H.: Aufbau einer Suchmaschine für ein Forschungsinstitut : Aufgabe für die Bibliothek? (2000) 0.01
    0.008196455 = product of:
      0.040982276 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 5234) [ClassicSimilarity], result of:
              0.043555573 = score(doc=5234,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 5234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5234)
          0.5 = coord(1/2)
        0.019204492 = weight(_text_:und in 5234) [ClassicSimilarity], result of:
          0.019204492 = score(doc=5234,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.27704588 = fieldWeight in 5234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5234)
      0.2 = coord(2/10)
    
    Abstract
    Anhand eines einfachen Modells wird geprüft, ob der Nutzen den Aufbau einer Spezialsuchmaschine trägt. Zum Vergleich werden fünf große Suchmaschinen herangezogen und deren Ergebnisse bei gleichen Fragestellungen analysiert. Es ergeben sich gravierende Abweichungen sowohl in der Überdeckung der Ergebnismengen als auch im Ranking. Es erscheint also sinnvoll, eine eigene Suchmaschine zu betreiben
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.335-341
  15. Womser-Hacker, C.: Evaluierung im Information Retrieval (2013) 0.01
    0.007651733 = product of:
      0.038258664 = sum of:
        0.024005614 = weight(_text_:und in 728) [ClassicSimilarity], result of:
          0.024005614 = score(doc=728,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34630734 = fieldWeight in 728, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=728)
        0.014253048 = product of:
          0.042759143 = sum of:
            0.042759143 = weight(_text_:29 in 728) [ClassicSimilarity], result of:
              0.042759143 = score(doc=728,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.38865322 = fieldWeight in 728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=728)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Date
    5. 4.2013 13:53:29
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  16. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.01
    0.00754556 = product of:
      0.0377278 = sum of:
        0.030601276 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.030601276 = score(doc=3068,freq=26.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.007126524 = product of:
          0.021379571 = sum of:
            0.021379571 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.021379571 = score(doc=3068,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Source
    Young information scientists. 1(2016), S.13-29
  17. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.00745119 = product of:
      0.03725595 = sum of:
        0.024005614 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.024005614 = score(doc=5863,freq=16.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.013250337 = weight(_text_:des in 5863) [ClassicSimilarity], result of:
          0.013250337 = score(doc=5863,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.15298408 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.2 = coord(2/10)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  18. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.01
    0.0070708804 = product of:
      0.035354402 = sum of:
        0.016803931 = weight(_text_:und in 4885) [ClassicSimilarity], result of:
          0.016803931 = score(doc=4885,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24241515 = fieldWeight in 4885, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
        0.01855047 = weight(_text_:des in 4885) [ClassicSimilarity], result of:
          0.01855047 = score(doc=4885,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
      0.2 = coord(2/10)
    
    Abstract
    In einem Benutzertest, der im Rahmen der Projektes GIRT stattfand, wurde die Leistungsfähigkeit zweier Retrievalsprachen für die Datenbankrecherche überprüft. Die Ergebnisse werden in diesem Bericht dargestellt: Das System FULCRUM beruht auf automatischer Indexierung und liefert ein nach statistischer Relevanz sortiertes Suchergebnis. Die Standardfreitextsuche des Systems MESSENGER wurde um die intellektuell vom IZ vergebenen Deskriptoren ergänzt. Die Ergebnisse zeigen, dass in FULCRUM das Boole'sche Exakt-Match-Retrieval dem Verktos-Space-Modell (Best-Match-Verfahren) von den Versuchspersonen vorgezogen wurde. Die in MESSENGER realisierte Mischform aus intellektueller und automatischer Indexierung erwies sich gegenüber dem quantitativ-statistischen Ansatz beim Recall als überlegen
  19. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.01
    0.0068241744 = product of:
      0.034120873 = sum of:
        0.023520604 = weight(_text_:und in 2919) [ClassicSimilarity], result of:
          0.023520604 = score(doc=2919,freq=24.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 2919, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
        0.01060027 = weight(_text_:des in 2919) [ClassicSimilarity], result of:
          0.01060027 = score(doc=2919,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.12238726 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2919)
      0.2 = coord(2/10)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  20. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.01
    0.006708171 = product of:
      0.033540856 = sum of:
        0.017640453 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.017640453 = score(doc=883,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.015900403 = weight(_text_:des in 883) [ClassicSimilarity], result of:
          0.015900403 = score(doc=883,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
      0.2 = coord(2/10)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.

Languages

  • e 90
  • d 52
  • f 2
  • fi 1
  • m 1
  • nl 1
  • sp 1
  • More… Less…

Types

  • a 126
  • r 7
  • el 6
  • s 6
  • x 6
  • m 5
  • p 1
  • More… Less…