Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 28. April 2022)
Suche
Suchergebnisse
Treffer 1–20 von 55
sortiert nach:
-
1Abad-García, M.-F. ; González-Teruel, A. ; González-Llinares, J.: Effectiveness of OpenAIRE, BASE, Recolecta, and Google Scholar at finding spanish articles in repositories.
In: Journal of the Association for Information Science and Technology. 69(2018) no.4, S.619-622.
(Brief communication)
Abstract: This paper explores the usefulness of OpenAIRE, BASE, Recolecta, and Google Scholar (GS) for evaluating open access (OA) policies that demand a deposit in a repository. A case study was designed focusing on 762 financed articles with a project of FIS-2012 of the Instituto de Salud Carlos III, the Spanish national health service's main management body for health research. Its finance is therefore subject to the Spanish Government OA mandate. A search was carried out for full-text OA copies of the 762 articles using the four tools being evaluated and with identification of the repository housing these items. Of the 762 articles concerned, 510 OA copies were found of 353 unique articles (46.3%) in 68 repositories. OA copies were found of 81.9% of the articles in PubMed Central and copies of 49.5% of the articles in an institutional repository (IR). BASE and GS identified 93.5% of the articles and OpenAIRE 86.7%. Recolecta identified just 62.2% of the articles deposited in a Spanish IR. BASE achieved the greatest success, by locating copies deposited in IR, while GS found those deposited in disciplinary repositories. None of the tools identified copies of all the articles, so they need to be used in a complementary way when evaluating OA policies.
Inhalt: Vgl.: https://onlinelibrary.wiley.com/doi/abs/10.1002/asi.23975.
Themenfeld: Informetrie ; Elektronisches Publizieren
Objekt: OpenAIRE ; BASE ; Recolecta ; Google Scholar
-
2Pfeiffer, T. ; Summann, F. ; Hellriegel, J. ; Wolf, S. ; Pietsch, C.: Virtuelle Realität zur Bereitstellung integrierter Suchumgebungen.
In: o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.94-107.
Abstract: Das Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) an der Universität Bielefeld beschäftigt sich seit 2013 mit der virtuellen Realität (VR). Ausgehend von konkreten Projektkooperationen (Publikations- und Forschungsdatenmanagement) mit der Universitätsbibliothek ist die Idee entstanden, mit der in 2016 neu angebotenen Konsumer-VR-Hardware die im Labor entwickelten Interaktionstechniken auf geeignete Szenarien im Bereich von bibliothekarischen Umgebungen anzuwenden. Als interessantes Anwendungsgebiet kristallisierte sich im gemeinsamen Diskurs die Literatursuche heraus: Als Suchsystem wurde die Bielefelder BASE-Datenbank (d.i. Bielefeld Academic Search Engine mit inzwischen mehr als 100 Mio. indexierten Dokumenten) ausgewählt. Diese Auswahl erfolgte vor dem Hintergrund, dass sich die von zahlreichen externen Institutionen bereits genutzte API-Schnittstelle als universell und robust erwiesen hat und umfangreiche Funktionen bereitstellt. Auf der Grundlage der umfangreichen theoretischen und praktischen Erfahrungen des CITEC mit VRTechniken wurde der Prototyp für eine virtuelle Suchumgebung realisiert, der ein Retrieval in einem Suchraum von Online-Dokumenten erlaubt. Die Nutzerinnen und Nutzer können die Suchanfrage explorativ zusammenstellen und dabei die Ergebnisse intuitiv verwalten. Unterstützt werden sie dabei durch Ergebnisanzeige, Sortierung, Optimierung des Suchergebnisses mittels Suchverfeinerung (Drilldown-basiert) oder Anfrageerweiterung und Wiederverwendung von abgelegten Ergebnissen. Gleichzeitig wird der Zugriff- und Lizenzstatus visualisiert und die Detailanzeige der Metadaten des Objektes integriert.
Inhalt: https://www.o-bib.de/article/view/2017H4S94-107. DOI: https://doi.org/10.5282/o-bib/2017H4S94-107.
Anmerkung: Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
Themenfeld: Katalogfragen allgemein ; OPAC
Objekt: BASE
Land/Ort: D ; BI
-
3Klein, A.: Von der Schneeflocke zur Lawine : Möglichkeiten der Nutzung freier Zitationsdaten in Bibliotheken.
In: o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.127-136.
Abstract: Zitationen spielen eine wichtige Rolle im wissenschaftlichen Diskurs, in der Recherchepraxis sowie im Bereich der Bibliometrie. In jüngster Zeit gibt es zunehmend Initiativen, die Zitationen als Open Data zur freien Nachnutzung verfügbar machen. Der Beitrag beschreibt den Stand der Entwicklung dieser Initiativen und zeigt, dass in nächster Zeit eine kritische Masse von Daten entstehen könnte, aus denen sich gerade für Bibliotheken neue Perspektiven ergeben. Als konkrete Möglichkeit zur Partizipation für Bibliotheken wird das DFG-Projekt Linked Open Citation Database (LOC-DB) vorgestellt.
Inhalt: https://www.o-bib.de/article/view/2017H4S127-136. DOI: https://doi.org/10.5282/o-bib/2017H4S127-136.
Anmerkung: Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
Themenfeld: Citation indexing ; Informetrie
Objekt: Linked Open Citation Database (LOC-DB)
Land/Ort: D
-
4Wolf, S.: Neuer Meilenstein für BASE : 90 Millionen Dokumente.
In: Mail an Inetbib vom 12.04.2016.
Abstract: BASE (https://www.base-search.net) ermöglicht seit Anfang April eine Suche nach über 90 Millionen Dokumenten, deren Metadaten von über 4.200 Dokumentenservern (Repositories) wissenschaftlicher Institutionen weltweit bereit gestellt werden. Damit ist BASE nach Google Scholar die größte Suchmaschine für wissenschaftliche, frei im Internet verfügbare Dokumente. Für über 30 Mio. Dokumente, die in BASE zu finden sind, können wir aufgrund von Informationen in den Metadaten einen Open-Access-Status ausweisen, insgesamt schätzen wir den Open-Access-Anteil derzeit auf 60%. Über ein Boosting-Verfahren werden Nachweise zu Open-Access-Dokumenten bevorzugt angezeigt, ebenso ist ein gezieltes Suchen unter Berücksichtigung verschiedener Lizenz- und Rechteangaben möglich. Der BASE-Index steht über verschiedene Schnittstellen zahlreichen anderen kommerziellen und nicht-kommerziellen Discovery-Systemen, Suchmaschinen, Datenbankanbietern, Fachbibliotheken und Entwicklern zur Nachnutzung zur Verfügung. BASE trägt damit wesentlich zur Nutzung von Inhalten auf Dokumentservern bei. Weitere Informationen: https://www.base-search.net/
Themenfeld: Information Gateway
Objekt: BASE
-
5Wasserman, M. ; Mukherjee, S. ; Scott, K. ; Zeng, X.H.T. ; Radicchi, F. ; Amaral, L.A.N.: Correlations between user voting data, budget, and box office for films in the internet movie database.
In: Journal of the Association for Information Science and Technology. 66(2015) no.4, S.858-868.
Abstract: The Internet Movie Database (IMDb) is one of the most-visited websites in the world and the premier source for information on films. Similar to Wikipedia, much of IMDb's information is user contributed. IMDb also allows users to voice their opinion on the quality of films through voting. We investigate whether there is a connection between user voting data and economic film characteristics. We perform distribution and correlation analysis on a set of films chosen to mitigate effects of bias due to the language and country of origin of films. Production budget, box office gross, and total number of user votes for films are consistent with double-log normal distributions for certain time periods. Both total gross and user votes are consistent with a double-log normal distribution from the late 1980s onward while for budget it extends from 1935 to 1979. In addition, we find a strong correlation between number of user votes and the economic statistics, particularly budget. Remarkably, we find no evidence for a correlation between number of votes and average user rating. Our results suggest that total user votes is an indicator of a film's prominence or notability, which can be quantified by its promotional costs.
Inhalt: Vgl.: http://onlinelibrary.wiley.com/doi/10.1002/asi.23213/abstract.
Behandelte Form: Filme
Objekt: Internet Movie Database
-
6Reischer, J. ; Lottes, D. ; Meier, F. ; Stirner, M.: Evaluation von Summarizing-Systemen : Kommerzielle und freie Systeme im Vergleich.
In: Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker. Boizenburg : VWH, Verl. W. Hülsbusch, 2010. S.298-308.
(Schriften zur Informationswissenschaft; Bd.58)
Abstract: Fünf kommerzielle und freie Systeme zum automatischen Zusammenfassen von englischen Texten werden hinsichtlich ihrer Summarizing-Leistung vergleichend evaluiert. Hierfür notwendige, eigene und fremde Evaluations-Ressourcen werden vorgestellt und diskutiert sowie Auswahlkriterien für verwendete Summarizer und Evaluationsmaße dargestellt.
Themenfeld: Referieren
Objekt: Baseline ; Copernic ; Intellexer ; OpenText ; SubjectSearch
-
7Liu, R.-L.: Context-based term frequency assessment for text classification.
In: Journal of the American Society for Information Science and Technology. 61(2010) no.2, S.300-309.
Abstract: Automatic text classification (TC) is essential for the management of information. To properly classify a document d, it is essential to identify the semantics of each term t in d, while the semantics heavily depend on context (neighboring terms) of t in d. Therefore, we present a technique CTFA (Context-based Term Frequency Assessment) that improves text classifiers by considering term contexts in test documents. The results of the term context recognition are used to assess term frequencies of terms, and hence CTFA may easily work with various kinds of text classifiers that base their TC decisions on term frequencies, without needing to modify the classifiers. Moreover, CTFA is efficient, and neither huge memory nor domain-specific knowledge is required. Empirical results show that CTFA successfully enhances performance of several kinds of text classifiers on different experimental data.
Themenfeld: Automatisches Klassifizieren
Objekt: Context-based Term Frequency Assessment
-
8Gnoli, C. ; Merli, G. ; Pavan, G. ; Bernuzzi, E. ; Priano, M.: Freely faceted classification for a Web-based bibliographic archive : the BioAcoustic Reference Database.
In: Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly. Würzburg : Ergon Verlag, 2010. S.124-134.
(Fortschritte in der Wissensorganisation; Bd.11)
Abstract: The Integrative Level Classification (ILC) research project is experimenting with a knowledge organization system based on phenomena rather than disciplines. Each phenomenon has a constant notation, which can be combined with that of any other phenomenon in a freely faceted structure. Citation order can express differential focality of the facets. Very specific subjects can have long classmarks, although their complexity is reduced by various devices. Freely faceted classification is being tested by indexing a corpus of about 3300 papers in the interdisciplinary domain of bioacoustics. The subjects of these papers often include phenomena from a wide variety of integrative levels (mechanical waves, animals, behaviour, vessels, fishing, law, ...) as well as information about the methods of study, as predicted in the León Manifesto. The archive is recorded in a MySQL database, and can be fed and searched through PHP Web interfaces. Indexer's work is made easier by mechanisms that suggest possible classes on the basis of matching title words with terms in the ILC schedules, and synthesize automatically the verbal caption corresponding to the classmark being edited. Users can search the archive by selecting and combining values in each facet. Search refinement should be improved, especially for the cases where no record, or too many records, match the faceted query. However, experience is being gained progressively, showing that freely faceted classification by phenomena, theories, and methods is feasible and successfully working.
Themenfeld: Universale Facettenklassifikationen
Objekt: BioAcoustic Reference Database
-
9Zhou, P. ; Leydesdorff, L.: ¬A comparison between the China Scientific and Technical Papers and Citations Database and the Science Citation Index in terms of journal hierarchies and interjournal citation relations.
In: Journal of the American Society for Information Science and Technology. 58(2007) no.2, S.223-236.
Abstract: The journal structure in the China Scientific and Technical Papers and Citations Database (CSTPCD) is analyzed from three perspectives: the database level, the specialty level, and the institutional level (i.e., university journals vs. journals issued by the Chinese Academy of Sciences). The results are compared with those for (Chinese) journals included in the Science Citation Index (SCI). The frequency of journal-journal citation relations in the CSTPCD is an order of magnitude lower than in the SCI. Chinese journals, especially high-quality journals, prefer to cite international journals rather than domestic ones; however, Chinese journals do not get an equivalent reception from their international counterparts. The international visibility of Chinese journals is low, but varies among fields of science. Journals of the Chinese Academy of Sciences have a better reception in the international scientific community than university journals.
Themenfeld: Informetrie
Objekt: Science Citation Index ; China Scientific and Technical Papers and Citations Database
-
10Pieper, D. ; Wolf, S.: BASE - Eine Suchmaschine für OAI-Quellen und wissenschaftliche Webseiten.
In: Information - Wissenschaft und Praxis. 58(2007) H.3, S.179-182.
Abstract: Dieser Aufsatz beschreibt die Entwicklung der Suchmaschine BASE (Bielefeld Academic Search Engine) seit 2005. In dieser Zeit wurde der Index um ein Vielfaches ausgebaut und auch die Nutzungszahlen stiegen deutlich. Der Schwerpunkt liegt auf der Indexierung von Dokumentenservern, die ihre Daten über das "Protocol for Metadata Harvesting" (OAI-PMH) bereitstellen. Im Gegensatz zu speziellen OAI-Suchmaschine wie OAIster verfügt BASE jedoch über weitergehende Suchmöglichkeiten und indexiert auch wissenschaftliche Webseiten mit Hilfe eines integrierten Web-Crawlers und andere Quellen, wie zum Beispiel den Bibliothekskatalog der Universitätsbibliothek Bielefeld. BASE kommt darüber hinaus als Suchsystem auch in anderen Bereichen, zum Beispiel im Bielefeld eScholarship Repository, als Suchmaschine der Universität Bielefeld und im EU-Projekt DRIVER via Schnittstellen zum BASE-Index zum Einsatz.
Themenfeld: Suchmaschinen
Objekt: BASE ; OAI-PMH
Land/Ort: Bielefeld
-
11Walters, W.H.: Google Scholar coverage of a multidisciplinary field.
In: Information processing and management. 43(2007) no.4, S.1121-1132.
Abstract: This paper evaluates the content of Google Scholar and seven other databases (Academic Search Elite, AgeLine, ArticleFirst, GEOBASE, POPLINE, Social Sciences Abstracts, and Social Sciences Citation Index) within the multidisciplinary subject area of later-life migration. Each database is evaluated with reference to a set of 155 core articles selected in advance-the most important studies of later-life migration published from 1990 to 2000. Of the eight databases, Google Scholar indexes the greatest number of core articles (93%) and provides the most uniform publisher and date coverage. It covers 27% more core articles than the second-ranked database (SSCI) and 2.4 times as many as the lowest-ranked database (GEOBASE). At the same time, a substantial proportion of the citations provided by Google Scholar are incomplete (32%) or presented without abstracts (33%).
Themenfeld: Informetrie
Objekt: Google Scholar ; Academic Search Elite ; AgeLine ; ArticleFirst ; GEOBASE ; POPLINE ; Social Sciences Abstracts ; Social Sciences Citation Index
-
12Hartknopf, A.: Google statt eBay : Moderne Suchtechnologien.
In: PC Magazin. 2006, H.2, S.170-171.
(Proficorner: Online-Datenbank)
Abstract: Diesen Herbst hat es ordentlich rumort im Netz. Bildschirmfotos und Berichte von einem geheimnisvollen neuen Dienst namens "Base" tauchten auf. Plante Google den Sturmangriff auf eBay und Co.? Nun ist es raus.
Inhalt: "Google beschreibt sein neues Angebot Base lapidar so: "Ein Platz, an dem Sie ganz einfach alle möglichen Arten von Online-oder Offline-Inhalten hosten lassen und auffindbar machen können." Und so sieht's auf den ersten Blick auch aus: ein bisschen wie die Grabbelkiste auf dem Flohmarkt. Nur lässt sich hier mit System grabbeln. Im Grunde ist Base (base.google.com) eine Datenbank. Sie nimmt einerseits Inhalte auf, die sich sonst nirgends finden, andererseits aber auch Verweise auf vorhandene Webseiten. Auch Bilder lassen sich einstellen. Suchkategorien von Blogs über Rezepte oder Comics bis zum Auto- und Jobmarkt helfen dabei, sich in den bunten Inhalten zu orientieren. So kann der Nutzer die Base "durchblättern" wie einen Katalog. Die meisten Kategorien lassen sich auf durchdachte Weise nochmals einschränken (bei Autos etwa auf Marke oder Farbe, bei Rezepten auf Suppe oder Dessert etc.). Zudem ist die Sortierung nach Relevanz oder Einstelldatum des Artikels wählbar. Das Ganze folgt der bekannten Google-Optik und ist ähnlich wie die Suchmaschine zu handhaben."
Anmerkung: Vgl.: base.google.com
Themenfeld: Suchmaschinen
Objekt: Google Base ; Ebay
-
13Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien.
In: PC Magazin. 2006, H.1, S.44-45.
(Special: Alles Finden)
Abstract: Google und Co. sind auf dem Weg in die Sackgasse. Die Zukunft gehört der Suche mit Intelligenz und Bedeutung. Denn dann hat die Suche Sinn und Verstand
Inhalt: "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt.bedeutet: Hier folgt eine Überschrift, : Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (, ) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde. ; Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen. ; Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"
Anmerkung: Vgl. base.google.com
Themenfeld: Suchmaschinen
Objekt: Google Base
-
14Summann, F. ; Wolf, S.: Suchmaschinentechnologie und wissenschaftliche Suchumgebung : Warum braucht man eine wissenschaftliche Suchmaschine?.
In: Online Mitteilungen. 2006, Nr.86, S.3-18 [=Mitteilungen VÖB 59(2006) H.2].
Abstract: Bereits seit längerem ist bekannt, dass Studierende und Wissenschaftler zur Informationsrecherche Internet-Suchmaschinen bevorzugen [Klatt 2001]. Wissenschaftlich relevante Internet-Seiten gehen aber in der Vielzahl der von Google, Yahoo & Co erfassten Seiten unter. In den riesigen Treffermengen allgemeiner Suchmaschinen sind wissenschaftliche Quellen über die umfangreichen Ergebnisseiten verstreut und zudem in der Trefferanzeige nur schwer als solche zu identifizieren. Internet-Suchmaschinen indexieren nur frei zugängliche Internet-Seiten (das sogenannte "Visible Web"). Inhalte aus wissenschaftlich relevanten Fach-, Volltext- und Verbunddatenbanken (das "Invisible Web"), werden bisher nicht erfasst oder zumindest nicht in den allgemeinen Index der Suchmaschinen integriert. Aber auch ein Teil des sichtbaren Webs bleibt für die Suchmaschinen unsichtbar. OAI-Server, die eigentlich zum "Visible Web" gehören, werden - wenn überhaupt - häufig nur unvollständig indexiert, was allerdings auch an der oftmals wenig suchmaschinenfreundlichen Aufbereitung der Inhalte auf diesen Servern liegt. Die gängigen Windows-Office-Dateiformate werden zwar von den allgemeinen Suchmaschinen inzwischen recht zuverlässig indexiert, eine Reihe von in Forschung und Lehre verwendeten Datenformate werden aber bisher von Internet-Suchmaschinen nicht berücksichtigt (z.B. LaTex, OpenOffice). Unabhängig vom Dateiformat gibt es eine Grenze bei der Indexierung besonders großer Dateien. Dateien werden nur bis zu einer Größe von etwa 800 KB vollständig indexiert. Alle Inhalte, die in einer Datei über diesem Limit liegen, werden nicht mehr indexiert, was sich bei umfangreichen Volltexten negativ bemerkbar macht. Um alle relevanten Informationen zu einem Thema zusammentragen zu können, müssen Informationsrecherchen daher sowohl in Suchmaschinen als auch in Fachdatenbanken durchgeführt werden. Recherchen in den Datenbanken des "Invisible Web" erbringen zwar hochwertige Ergebnisse, dauern oft aber vergleichsweise lange. Die Antwortzeiten von Metasuchumgebungen, die ihre Suchanfragen über das Z39.50-Protokoll oder per HTTP an eine Vielzahl von Zieldatenbanken weiterreichen und anschließend die Ergebnisse zusammenführen, sind um ein Vielfaches höher als die der Internet-Suchmaschinen. Häufig ist auch die Hardwareausstattung der Zielserver nicht ausreichend oder die Lizenzverträge der Herstellerfirmen lassen nur eine begrenzte Anzahl gleichzeitiger User zu. Die Bielefeld Academic Search Engine (BASE) vereinigt die Vorteile von Suchmaschinen (einfache Nutzung, schnelle Antwortzeiten, Relevanzbewertung) und Datenbanken (Berücksichtigung bibliographischer Suchaspekte, hohe Qualität der Quellen).
Themenfeld: Suchmaschinen
Objekt: BASE
Land/Ort: D ; Bielefeld
-
15Pieper, D. ; Summann, F.: Bielefeld Academic Search Engine (BASE) : an end-user oriented institutional repository search service.
In: Library hi tech. 24(2006) no.4, S.614-619.
Abstract: Purpose - The purpose of this paper is to describe the activities of Bielefeld University Library in establishing OAI based repository servers and in using OAI resources for end-user-oriented search services like Bielefeld Academic Search Engine (BASE). Design/methodology/approach - Discusses OAI based repository servers. Findings - BASE is able to integrate external functions of Google Scholar. The search engine technology can replace or amend the search functions of a given repository software. BASE can also be embedded in external repository environments. Originality/value - The paper provides an overview of the functionalities of BASE and gives insight into the challenges that have to be faced when harvesting and integrating resources from multiple OAI servers.
Themenfeld: Suchmaschinen
Objekt: BASE
-
16Summann, F. ; Wolf, S.: BASE-Suchmaschinentechnologie für digitale Bibliotheken.
In: Information - Wissenschaft und Praxis. 56(2005) H.1, S.51-57.
Abstract: Allgemeine Suchmaschinen wie Google werden heutzutage immer häufiger auch bei der Recherche nach wissenschaftlichen Informationen eingesetzt. Dabei ist meist nicht klar, dass sie auf diesem Gebiet höchst unvollständig sind. Gleichzeitig setzt man die aus Suchmaschinen gewohnte einfache Bedienung und sehr hohe Performanz inzwischen auch bei speziellen Rechercheinstrumenten für wissenschaftliche Informationen (z.B. Fachdatenbanken) voraus. Auch wenn die Oualität der enthaltenen Ouellen hier um ein Vielfaches höher liegt gestaltet sich die Bedienung einer Fachdatenbank jedoch meist deutlich schwieriger als die einer Suchmaschine. Im Rahmen eines Projekts hat die Universitätsbibliothek Bielefeld mit der "Bielefeld Academic Search Engine" (BASE) eine Suchmaschine entwickelt, die die hohe Relevanz der Ouellen aus Datenbanken mit der Einfachheit der Bedie-nung einer Suchmaschine kombiniert. Der Schwerpunkt liegt eindeutig auf der praktischen Umsetzung. Die allgemeine Vorgehensweise (eingesetzte SuchmaschinenSoftware und -Technologien, Entwicklung des Layouts, Integration von Datenquellen etc.) und die möglichen Einsatzgebiete einer solchen wissenschaftlichen Suchmaschine werden in diesem Artikel beschrieben.
Anmerkung: Beitrag in einem Heft mit dem Themenschwerpunkt "Suchmaschinen"
Themenfeld: Suchmaschinen
Objekt: BASE
Land/Ort: D ; Bielefeld
-
17Wolf, S.: Konkurrenz bei der wissenschaftlichen Recherche.
In: BuB. 57(2005) H.3, S.215-220.
Abstract: Die Suchmaschinen-Betreiber weiten ihr Angebot kräftig aus Die vergangenen Monate brachten einige Veränderungen auf dem Suchdienste-Sektor. Im »klassischen« Internet-Suchmaschinen-Bereich will sich Yahoo als Nummer 2 etablieren, Microsoft rüstet mit einigen neuen Funktionen auf und Google gibt eine Verdoppelung der Index-Größe bekannt. Die Suchmaschinen-Betreiber, allen voran Google, wagen sich allerdings auch immer mehr in den Bereich der wissenschaftlichen Recherche vor. So durchsucht »Google Scholar« gezielt wissenschaftliche Quellen. Unter dem Namen »Google Print« startet Google eines der größten Digitalisierungsprojekte. Amazon verknüpft mit der Suchmaschine »A9.com« Internet- und Buch-Recherche.
Themenfeld: Suchmaschinen
Objekt: MSN Search ; Google ; Yahoo ; A9.com ; BASE ; Dandelon ; Clusty
-
18Summann, F. ; Lossau, N.: Suchmaschinentechnologie und Digitale Bibliotheken : Von der Theorie zur Praxis.
In: Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.1, S.13-17.
Abstract: Der folgende Aufsatz beschreibt aus technischer Sicht den Weg von der Konzeption und Vision einer modernen suchmaschinenbasierten Suchumgebung zu ihrer technologischen Umsetzung. Er nimmt den Faden, der im ersten Teil (ZfBB 51 (2004), 5/6) beschrieben wurde, unter technischen Gesichtspunkten wieder auf. Dabei werden neben den konzeptionellen Ausgangsüberlegungen schwerpunktmäßig die technologischen Aspekte beleuchtet.
Anmerkung: Bezugnahme auf: Lossau, N.: Suchmaschinentechnologie und Digitale Bibliotheken: Bibliotheken müssen das wissenschaftliche Internet erschließen. In: Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.5/6, S.284-294.
Themenfeld: Internet ; Informationsmittel ; Information Gateway
Objekt: BASE
Land/Ort: D ; Bielefeld
-
19Naun, C.C. ; Elhard, K.C.: Cataloguing, lies, and videotape : comparing the IMDb and the library catalogue.
In: Cataloging and classification quarterly. 41(2005) no.1, S.23-43.
Abstract: Many librarians have written about the Internet Movie Database (IMDb; http://www.imdb.com), praising it as a popular and effective reference tool. However, the cataloguing principles that drive the database's user-friendly structure have been largely overlooked. In this paper, we examine the organizational principles behind the IMDb and compare them to standard cataloguing practice according to AACR 2 and the MARC format. This approach provides illustrations of how different cataloguing principles support information access, while offering a new perspective on the library online catalogue.
Themenfeld: Formalerschließung
Behandelte Form: Videos
Objekt: Internet Movie Database
-
20Lossau, N.: Suchmaschinentechnologie und Digitale Bibliotheken : Bibliotheken müssen das wissenschaftliche Internet erschließen.
In: Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.5/6, S.284-294.
Abstract: Werden Google, Yahoo und Microsoft die einzigen Zugänge zum weltweiten Wissen im Jahre 2010 darstellen? Der Autor setzt sich für eine konzertierte Aktion der Bibliotheken ein, um mittels »State-of-the-Art«- Suchmaschinentechnologie verlässliche, qualitativ hochwertige Suchdienste für wissenschaftliche Informationen in Forschung und Lehre aufzubauen. Die Notwendigkeit ergibt sich aus dem explosionsartigen Anwachsen wissenschaftlich relevanter Dokumente, die nicht selten ausschließlich über das Internet zugänglich sind und über derzeit verfügbare Informationsportale von Bibliotheken nicht oder nur sehr unzulänglich recherchiert werden können. Der Artikel beschreibt mögliche Wege der Kooperationen von Bibliotheken und anderen Informationsanbietern im nationalen und internationalen Kontext beim Aufbau eines offenen, verteilten wissenschaftlichen Internet-Indexes, der modular angelegt in beliebigen lokalen Umgebungen genutzt werden kann. Für die nutzerfreundliche Gestaltung des neuen Suchservices wird auf die Notwendigkeit der Berücksichtigung von etablierten, allgemeinen Internet-Suchdiensten eingegangen, die innerhalb kurzer Zeit eine hohe Popularität und Nutzerakzeptanz gewonnen haben.
Anmerkung: Vgl. auch die Fortsetzung: Summann, F., N. Lossau: Suchmaschinentechnologie und Digitale Bibliotheken: Von der Theorie zur Praxis. In: Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.1, S.13-17.
Themenfeld: Internet ; Informationsmittel ; Information Gateway
Objekt: BASE
Land/Ort: D ; Bielefeld