Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 04. Juni 2021)
Suche
Suchergebnisse
Treffer 1–20 von 114
sortiert nach:
-
1Hider, P.: ¬The search value added by professional indexing to a bibliographic database.
In: Knowledge organization. 45(2018) no.1, S.23-32.
Abstract: Gross et al. (2015) have demonstrated that about a quarter of hits would typically be lost to keyword searchers if contemporary academic library catalogs dropped their controlled subject headings. This article reports on an investigation of the search value that subject descriptors and identifiers assigned by professional indexers add to a bibliographic database, namely the Australian Education Index (AEI). First, a similar methodology to that developed by Gross et al. (2015) was applied, with keyword searches representing a range of educational topics run on the AEI database with and without its subject indexing. The results indicated that AEI users would also lose, on average, about a quarter of hits per query. Second, an alternative research design was applied in which an experienced literature searcher was asked to find resources on a set of educational topics on an AEI database stripped of its subject indexing and then asked to search for additional resources on the same topics after the subject indexing had been reinserted. In this study, the proportion of additional resources that would have been lost had it not been for the subject indexing was again found to be about a quarter of the total resources found for each topic, on average.
Themenfeld: Retrievalstudien ; Volltextretrieval
-
2Kugler, A.: Automatisierte Volltexterschließung von Retrodigitalisaten am Beispiel historischer Zeitungen.
In: Perspektive Bibliothek. 7(2018) H.1, S.33-54.
Abstract: Seit ein paar Jahren postuliert die DFG in ihren Praxisregeln "Digitalisierung", dass eine ausschließliche Bilddigitalisierung nicht mehr den wissenschaftlichen Ansprüchen Genüge leiste, sondern der digitale Volltext notwendig sei, da dieser die Basis für eine wissenschaftliche Nachnutzung darstellt. Um ein besseres Verständnis davon zu erlangen, was sich hinter dem Begriff "Volltext" verbirgt, wird im Folgenden ein kleiner Einblick in die technischen Verfahren zur automatisierten Volltexterschließung von Retrodigitalisaten geboten. Fortschritte und auch Grenzen der aktuellen Methoden werden vorgestellt und wie Qualität in diesem Zusammenhang überhaupt bemessen werden kann. Die automatisierten Verfahren zur Volltexterschließung werden am Beispiel historischer Zeitungen erläutert, da deren Zugänglichmachung gerade in den Geisteswissenschaften ein großes Desiderat ist und diese Quellengattung zugleich aufgrund der Spaltenstruktur besondere technische Herausforderungen mit sich bringt. 2016 wurde das DFG-Projekt zur Erstellung eines "Masterplan Zeitungsdigitalisierung" fertiggestellt, dessen Ergebnisse hier einfließen.
Inhalt: Vgl.: http://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/48394. Vgl. auch: URN (PDF): http://nbn-resolving.de/urn:nbn:de:bsz:16-pb-483949.
Themenfeld: Volltextretrieval ; Automatisches Indexieren
Behandelte Form: Zeitungen
-
3Silva, E.M. da: Comparing the use of full text search between a conventional IR System and a DBMS.
In: Challenges and opportunities for knowledge organization in the digital age: proceedings of the Fifteenth International ISKO Conference, 9-11 July 2018, Porto, Portugal / organized by: International Society for Knowledge Organization (ISKO), ISKO Spain and Portugal Chapter, University of Porto - Faculty of Arts and Humanities, Research Centre in Communication, Information and Digital Culture (CIC.digital) - Porto. Eds.: F. Ribeiro u. M.E. Cerveira. Baden-Baden : Ergon Verlag, 2018. S.120-127.
(Advances in knowledge organization; vol.16)
Themenfeld: Volltextretrieval
-
4Hider, P.: ¬The search value added by professional indexing to a bibliographic database.
In: http://www.iskocus.org/NASKO2017papers/NASKO2017_paper_33.pdf [NASKO 2017, June 15-16, 2017, Champaign, IL, USA].
Abstract: Gross et al. (2015) have demonstrated that about a quarter of hits would typically be lost to keyword searchers if contemporary academic library catalogs dropped their controlled subject headings. This paper reports on an analysis of the loss levels that would result if a bibliographic database, namely the Australian Education Index (AEI), were missing the subject descriptors and identifiers assigned by its professional indexers, employing the methodology developed by Gross and Taylor (2005), and later by Gross et al. (2015). The results indicate that AEI users would lose a similar proportion of hits per query to that experienced by library catalog users: on average, 27% of the resources found by a sample of keyword queries on the AEI database would not have been found without the subject indexing, based on the Australian Thesaurus of Education Descriptors (ATED). The paper also discusses the methodological limitations of these studies, pointing out that real-life users might still find some of the resources missed by a particular query through follow-up searches, while additional resources might also be found through iterative searching on the subject vocabulary. The paper goes on to describe a new research design, based on a before - and - after experiment, which addresses some of these limitations. It is argued that this alternative design will provide a more realistic picture of the value that professionally assigned subject indexing and controlled subject vocabularies can add to literature searching of a more scholarly and thorough kind.
Inhalt: Beitrag bei: NASKO 2017: Visualizing Knowledge Organization: Bringing Focus to Abstract Realities. The sixth North American Symposium on Knowledge Organization (NASKO 2017), June 15-16, 2017, in Champaign, IL, USA.
Themenfeld: Retrievalstudien ; Volltextretrieval
-
5Gross, T. ; Taylor, A.G. ; Joudrey, D.N.: Still a lot to lose : the role of controlled vocabulary in keyword searching.
In: Cataloging and classification quarterly. 53(2015) no.1, S.1-39.
Abstract: In their 2005 study, Gross and Taylor found that more than a third of records retrieved by keyword searches would be lost without subject headings. A review of the literature since then shows that numerous studies, in various disciplines, have found that a quarter to a third of records returned in a keyword search would be lost without controlled vocabulary. Other writers, though, have continued to suggest that controlled vocabulary be discontinued. Addressing criticisms of the Gross/Taylor study, this study replicates the search process in the same online catalog, but after the addition of automated enriched metadata such as tables of contents and summaries. The proportion of results that would be lost remains high.
Themenfeld: Verbale Doksprachen im Online-Retrieval ; Volltextretrieval
Objekt: LCSH
-
6Rosemann, L.: ¬Die Volltextabfrage und das Alleinstellungsmerkmal des physischen Buches.
In: Information - Wissenschaft und Praxis. 57(2006) H.4, S.217-218.
Inhalt: "Mit Google Print bzw. mittlerweile Google Book Search und dem Projekt zur Übernahme eines brancheneigenen Portals zur Pflege und Bereitstellung digitaler Daten aus Büchern namens "Volltextsuche online" initiiert durch den Börsenverein des Deutschen Buchhandels tritt ein Thema auf den Plan, das im deutschen Sprachraum lange vernachlässigt wurde: allgemein gesprochen, die Notwendigkeit der Texterschließung durch Indexierung - sei sie gedruckt in Form von Registern im Anhang von Sach- und wissenschaftlichen Büchern oder ungedruckt in Form sog. Volltextabfragen per Suchmaske am Computer. Angesichts der exponentiell wachsenden Menge an Wissen ist es gut, wenn hierzu Überlegungen angestellt werden und damit die Chance besteht, neben der wirtschaftlichen auch über die wissenstheoretische Dimension dieser Dienste nachzudenken. Zweifellos wird die Bedeutung der Indexierung von Fließtext aus wissenstheoretischer Sicht in Zukunft noch weiter wachsen und bedeutet im Falle einer Online-Plattform (wenn sie denn in naher Zukunft eine hinreichend große Menge an Büchern in ihrem Datenbestand aufweisen wird) die Erfüllung eines Traumes für die wissenschaftliche Arbeit: Es ist fantastisch, in Millisekunden das Vorhandensein von Personen, Termen, Phrasen und Wortkomposita zu ermitteln, um die Ein- bzw. Nichteinschlägigkeit eines Buches und - mehr noch -vieler Bücher für die eigene Arbeit eindeutig beantworten zu können. Es ist fantastisch, im Trefferfall die gesuchte Information sogleich auf dem Monitor exzerpieren zu können oder sich auch bei ausbleibenden Treffern das Durcharbeiten eines ganzen Buches, vielleicht sogar einer halben Bibliothek ersparen zu können. Dabei ist das letztere Resultat mindestens eine genauso wichtige Information wie die erste, denn auch sie wird- man darf fast sagen, so gut wie immer - zu einer unglaublichen Ersparnis an Zeit verhelfen; hier bedeutet allein schon die Verringerung der Datenmenge einen Zuwachs an Wissen unter minimalem Zeitaufwand. Angesichts dieser Diagnose ist die These zu wagen, die digitale Revolution beginnt erst wirklich bei der Nutzung der Volltexte selbst als Datenquelle zur Wissensabfrage. ; . . . Ich plädiere hier aus den oben genannten wissenstheoretischen Gründen nicht nur für die Aufrechterhaltung eines Mindestmaßes an Registern und Indexen im Anhang von physischen Büchern, sondern sogar für deren Ausbau, deren standardmäßige Zugabe bei Sach- und wissenschaftlichen Büchern gerade angesichts der Volltextnutzung durch Online-Abfragen. Warum? Hierzu sechs Argumente: 1. Wie oben bereits angerissen, lehrt die Erfahrung bei CD-ROM-Zugaben zu opulenten Werken, dass Parallelmedien mit Parallelinhalten von den Nutzern nicht wirklich angenommen werden; es ist umständlich, zur Auffindung bestimmter Textstellen den Computer befragen zu müssen und die Fundstellen dann zwischen zwei Buchdeckeln nachzuschlagen. 2. Über frei wählbare Suchbegriffe seitens des Nutzers ist noch keine Qualität der Suchergebnisse garantiert. Erst das Einrechnen entsprechender Verweisungsbegriffe und Synonyme in die Suchabfrage führt zu Qualität des Ergebnisses. Die scheinbar eingesparten Kosten einer einmaligen bzw. abonnementartigen Investition in eine Online-Verfügbarkeit der Buchinhalte vonseiten der Verlage werden dann über die Hintertür doch wieder fällig, wenn sich nämlich herausstellt, dass Nutzer bei der von ihnen gesuchten Information nicht fündig werden, weil sie unter dem "falschen", d.h. entweder ihnen nicht bekannten oder einem ihnen gerade nicht präsenten Schlagwort gesucht haben. Die Online-Suchabfrage, die auf den ersten Blick höchst nutzerfreundlich erscheint, da eine ungeheure Menge an Titeln die Abfrage umfasst, erweist sich womöglich als wenig brauchbar, wenn sich die Trefferqualität aus den genannten Gründen als beschränkt herausstellt. 3. Nur bei entsprechenden Restriktionen des Zugangs bzw. der präsentierten Textausschnitte werden die Verlage es gewährleistet sehen, dass die Nutzerin, der Nutzer nicht vom Kauf des physischen Buches Abstand nehmen. Nur wenn die Nutzer wissen, dass ihnen gerade jene Informationen am Bildschirm vorenthalten werden, die sie im zu erwerbenden Buch mit Gewissheit finden werden, werden sie das Buch noch erwerben wollen. Wer auf die Schnelle nur ein Kochrezept aus einem teuer bebilderten Kochbuch der Oberklasse abrufen kann, wird das teure Kochbuch eben nicht mehr kaufen. Analog stellt sich die Frage, ob nicht aus diesem Grunde auch Bibliotheken erwägen werden, angesichts der elektronischen Präsenz teuerer physischer Bücher auf den Erwerb der Letzteren zu verzichten, wohl wissend, dass den Wissenschaftlern im Zweifel einige Mausklicks genügen, um die gewünschte Begriffsrecherche erschöpfend beantwortet zu finden. ; 4. Vermutlich wird sich aufgrund der genannten Gründe der Buchservice Volltextsuche als heterogen darstellen: Einige Verlage werden gar nicht mitspielen, andere werden ein Buch im Vollzugriff, ein anderes nur zum Teil, ein drittes nur als Metainformation usw. indizieren lassen. Dies wird letztlich ebenfalls die Trefferqualität schmälern, da der Nutzer dann wiederum wissen muss, genau welche Informationen und Texte ihm bei seiner Suche vorenthalten werden. Das gedruckte Sachbuch wird gegen seinen eigenen digitalen Klon ein Alleinstellungsmerkmal brauchen, um weiterhin attraktiv zu sein. 5. Ein solches Alleinstellungsmerkmal würde m.E. maßgeblich durch die Erstellung von gedruckten Registern bereits in der Druckausgabe erreicht werden. Damit würde die Druckausgabe tatsächlich an Wert gewinnen und der Buchkäufer erhielte einen echten Mehrwert. Zum einen spiegelt sich bereits in der Erstellung konventioneller gedruckter Register die zweite digitale Revolution wider: Moderne Registererstellung basiert heutzutage ebenfalls auf der digitalen Verwertung des Volltextes. Zum anderen erfordert das "Registermachen" zugleich die Erbringung jener o.g. sachdienlichen Mehrinformationen wie Verweisungsbegriffe, vernünftige Klassifizierungen, nicht-redundante Begriffsauswahl etc., die nur begrenzt automatisierbar sind und Fachwissen erfordern. Erst diese beiden Komponenten lassen die Indexierung schlussendlich zu einer hochwertigen Aufbereitung sequentieller Information werden. 6. Genau diese Mehr- und Metainformationen, die die vorausgegangene Erstellung eines Print-Vollregisters geliefert hat, lassen sich dann in den Suchalgorithmus der Online-Suche zur Qualitätssteigerung der Treffer einrechnen."
Themenfeld: Register ; Volltextretrieval
-
7Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken.
Frankfurt a.M. : Lang, 2005. X,243 S.
ISBN 3-631-54447-2
(Saarbrücker Beiträge zur Sprach- und Translationswissenschaft; Bd.8)
Abstract: Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
Inhalt: Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext ; 5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
Anmerkung: Zugl.: Saarbrücken, Univ., Diss., 2005
Themenfeld: Computerlinguistik ; Volltextretrieval ; Sprachretrieval
Objekt: Brockhaus Multimedial 2004 ; Brockhaus Enzyklopädie Digital
RSWK: Volltextdatenbank / Natürlichsprachiges System ; Brockhaus-Enzyklopädie / Multimedia / Recherche
-
8Kramer, A.: Datendetektive : Volltextsuchmaschinen trotzen dem Chaos auf der Festplatte.
In: c't. 2004, H.14, S.182-189.
Abstract: Wo war noch mal die Adressliste für das nächste Klassentreffen, wie lautet das Angebot vom Partyservice und wer hat überhaupt schon alles zugesagt? Das System braucht schon für eine einfache Recherche im Volltext aller Dateien extrem lange. Suchprogramme von Drittanbietern arbeiten nicht nur schneller, sondern auch besser
Themenfeld: Volltextretrieval ; Suchmaschinen
Objekt: Documind Pro 5.0 ; dtSearch 6.33 ; FindWord 2.0.0.10 ; HotBot Quick Search ; ISYS:desktop 6 ; MTLibrarian 1.5 ; Search32 v.8 ; SERglobalBrain 1.7 ; Sleuthhound! 4.5 Pro ; X1 Search 3.0
-
9Dambeck, H. ; Engler, T.: Gesucht und gefunden : Neun Volltext-Suchprogramme für den Desktop.
In: c't. 2002, H.22, S.190-197.
Abstract: Ordnung ist das halbe Leben. Schön, aber was ist mit der anderen Hälfte? Zumindest für den eigenen PC gibt es Hilfe, um auch im größten Chaos die Übersicht zu behalten. Volltext-Suchprogramme finden binnen Sekunden alle Text-, Excel- oder PDF-Dateien, die den gewünschten Suchtext enthalten
Themenfeld: Volltextretrieval
Objekt: ConSearch 7.5 ; Documind Pro 3.0 ; dtSearch 6.07 ; Finder Mac OS X 10.2 ; FindWord 1.3d ; Indexdienst Windows 2000/XP ; Search32 6.01 ; Sleuthhound! Pro Powerpack 4.2 ; Fazit
-
10Notess, G.R.: Tracking title search capabilities.
In: Online. 25(2001) no.3, S.72-74.
Themenfeld: Volltextretrieval
-
11Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases.
In: Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 54(2001) H.1, S.55-62.
Abstract: OSIRIS und ELIB sind von der Deutschen Forschungsgemeinschaft (DFG) und dem Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) geförderte Projekte an der Universität Osnabrück. Sie beschäftigen sich mit intuitiv-natürlichsprachlichen Retrievalsystemen und mit Fragen der Indexierung großer Volltexdatenbanken in dieser Technik. Die Entwicklungen haben dazu geführt, daß an sich aufwendige und komplexe Verfahren der syntaktisch-semantischen Analyse und Bewertung von textuellen Phrasen in relationale Datenbanken für Massendaten eingebettet werden konnten und nun im Produktionsbetrieb eingesetzt werden können
Themenfeld: Volltextretrieval
Objekt: OSIRIS
-
12Moukdad, H. ; Large, A.: Information retrieval from full-text arabic databases : can search engines designed for English do the job?.
In: Libri. 51(2001) no.2, S.63-74.
Themenfeld: Suchmaschinen ; Volltextretrieval
-
13Pipp, E.: Volltextdatenbanken im Vergleich.
In: Bibliotheksdienst. 35(2001) H.9, S.1061-1078.
Anmerkung: Vortrag anlässlich der ODOK'01 in Graz, 24.-27.4.2001
Themenfeld: Volltextretrieval
-
14McDonald, J. ; Ghaphery, J.: Do we have this in full-text? : providing access to content in full-text aggregated databases.
In: Against the grain. 12(2000) no.2, S.28-30.
Themenfeld: Volltextretrieval
-
15Reinisch, F.: Wer suchet - der findet? : oder Die Überwindung der sprachlichen Grenzen bei der Suche in Volltextdatenbanken.
In: Dokumente und Datenbanken in elektronischen Netzen: Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997. Hrsg.: E. Pipp. Innsbruck : Österreichische Online-Benutzergruppe, 2000. S.165-174.
(BIBLOS-Schriften; 161)
Themenfeld: Volltextretrieval ; Multilinguale Probleme
-
16Trinkwalder, A.: Wortdetektive : Volltext-Suchmaschinen für Festplatte und Intranet.
In: c't. 2000, H.20, S.168-177.
Abstract: Oft sorgt die eigene Unordentlichkeit dafür, dass wichtige Texte unauffindbar sind, manchmal lässt sich aber auch einfach die schiere Menge nicht bändigen und vernünftig sortieren. Text-Retrieval-Systeme durchforsten das Dickicht und versprechen den schnellen Weg zu wertvollen Informationen
Themenfeld: Volltextretrieval ; Dokumentenmanagement
Objekt: ConSearch ; DokuFinder ; dtSearch ; FindWord ; Isys Desktop ; Search32 ; Sonar ; Sleuthhound
-
17Palos, S.: Indexierung, Volltextrecherche und digital Text-Dossiers.
In: nfd Information - Wissenschaft und Praxis. 50(1999) H.7, S.413-419.
Abstract: Der Artikel stellt Ergebnisse einer Studie zur vergleichenden Bewertung von Verfahren der nachfrageorientierten Inhaltserschließung im Volltextarchiv der Stuttgarter Zeitung vor. Im ersten Teil der Arbeit wird empirisch untersucht, ob in der digitalen Pressedokumentation auf eine intellektuelle Indexierung von Artikeln verzichtet werden kann, wenn ausschließlich im Volltext recherchiert wird. Im zweiten Teil der Arbeit werden Möglichkeiten und Grenzen einer innovativen Inhaltserschließung von Volltexten in der Textdokumentation der Stuttgarter Zeitung mittels Digitaler Textdossiers diskutiert
Themenfeld: Volltextretrieval
Behandelte Form: Zeitungen
Land/Ort: D ; Stuttgart
-
18Sclafani, F.: Controlled subject heading searching versus keyword searching.
In: Technicalities. 19(1999) no.9, S.7,13-15.
Themenfeld: Volltextretrieval
-
19Falk, H.: Building and using document databases.
In: Electronic library. 16(1998) no.1, S.55-59.
Abstract: Describes the available technology and commercial packages for scanning documents and enabling the creation of full text databases of documents
Themenfeld: Volltextretrieval
-
20Melucci, M.: Passage retrieval : a probabilistic technique.
In: Information processing and management. 34(1998) no.1, S.43-68.
Abstract: This paper presents a probabilistic technique to retrieve passages from texts having a large size or heterogeneous semantic content. The proposed technique is independent on any supporting auxiliary data, such as text structure, topic organization, or pre-defined text segments. A Bayesian framework implements the probabilistic technique. We carried out experiments to compare the probabilistique technique to one based on a text segmentation algorithm. In particular, the probabilistique technique is more effective than, or as effective as the one based on the text segmentation to retrieve small passages. Results show that passage size affects passage retrieval performance. Results do also suggest that text organization and query generality may have an impact on the difference in effectiveness between the two techniques
Themenfeld: Volltextretrieval