Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 04. Juni 2021)
Suche
Suchergebnisse
Treffer 1–13 von 13
sortiert nach:
-
1Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web.
In: B.I.T.online. 1(1998) H.4, S.279-290.
Abstract: Die intellektuelle Erschließung des Internet befindet sich in einer Krise. Yahoo und andere Dienste können mit dem Wachstum des Web nicht mithalten. GERHARD ist derzeit weltweit der einzige Such- und Navigationsdienst, der die mit einem Roboter gesammelten Internetressourcen mit computerlinguistischen und statistischen Verfahren auch automatisch vollständig klassifiziert. Weit über eine Million HTML-Dokumente von wissenschaftlich relevanten Servern in Deutschland können wie bei anderen Suchmaschinen in der Datenbank gesucht, aber auch über die Navigation in der dreisprachigen Universalen Dezimalklassifikation (ETH-Bibliothek Zürich) recherchiert werden
Anmerkung: Vgl. auch: http://www.gerhard.de/info/Dokumente/Bericht/bericht.pdf
Themenfeld: Automatisches Klassifizieren ; Internet ; Klassifikationssysteme im Online-Retrieval
Objekt: GERHARD ; DK ; Harvest ; UDC
-
2Wätjen, H.-J. ; Diekmann, B. ; Möller, G. ; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory.Stand: 16.6.1998.
In: http://www.gerhard.de/info/Dokumente/Bericht/bericht.pdf. Oldenburg : BIS, 1998. 34 S.
Anmerkung: Vgl.: http://www.gerhard.de
Themenfeld: Automatisches Klassifizieren ; Internet ; Klassifikationssysteme im Online-Retrieval
Objekt: GERHARD ; DK ; Harvest ; UDC
-
3Wätjen, H.-J.: Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web : das DFG-Projekt GERHARD.
In: http://www.gerhard.de/info/Vortraege/DGD-vortrag.html.
Anmerkung: Vortrag auf der 20. Online-Tagung der Deutschen Gesellschaft für Dokumentation, 5.-7.5.1998. Session 3: WWW-Suchmaschinen
Themenfeld: Automatisches Klassifizieren ; Internet ; Klassifikationssysteme im Online-Retrieval
Objekt: GERHARD ; DK ; Harvest ; UDC
-
4Hancock, B.: Subject-specific search engines : using the Harvest system to gather and maintain information on the Internet.
In: Library software review. 17(1998) no.2, S.84-89.
Abstract: The increasing expansion of the Internet has made resources available to users in sometimes unmanageable abundance. To help users manage this proliferation of information, librarians have begun to add URLs to their home pages. As well, specialized search engines are being used to retrieve information from selected sources in aneffort to return pertinent results. Describes the Harvest system which has been used to develop Index Antiquus, a specialized engine, for the classics and mediaeval studies. Presents a working example of how to search Index Antiquus
Anmerkung: Vgl.: http://loca.ablah.twsu.edu
Themenfeld: Suchmaschinen
Objekt: Harvest ; Index Antiquus
-
5Morgan, E.L.: Indexing, indexing, indexing : making it work for your library.
In: Computers in libraries. 18(1998) no.6, S.30-32.
Abstract: The creation of their own indexes of electronic texts empowers libraries to create focused, customizable information services, enabling the searching of their collections of electronic texts by staff and patrons. Describes what indexing is, why it should be an integral part of information services, and the development of computerized indexing. Describes and compares the features of 4 UNIX-based indexing systems: freewais-sf, Harvest, SWISH-E, and ht://Dig
Themenfeld: Internet
Objekt: FreeWAIS-sf ; Harvest ; SWISH-E ; ht://Dig
-
6Pietzsch, E.: Internet-Objekte : automatisierte Erschließung und inhaltsbezogene Recherche.
In: ABI-Technik. 17(1997) H.1, S.13-18.
Abstract: Bibliotheken stehen heute vor der Aufgabe, Internet-Ressourcen angemessen zugänglich zu machen. Im vorliegenden Papier wird ein mehrstufiges Verfahren zur automatisierten Erschließung von Internet-Objekten vorgestellt, das eine inhaltsbezogene Recherche ermöglicht. Es berücksichtigt die üblichen Konventionen im Internet ebenso wie eine den Objekten angemessene Erschließungsqualität. Zur Realisierung des Verfahrens wird die Software Harvest vorgeschlagen
Themenfeld: Internet
Objekt: Harvest
-
7
-
8Wätjen, H.-J.: Mensch oder Maschine? : Auswahl und Erschließung vonm Informationsressourcen im Internet.
In: Vortrag anläßlich des Workshops'Internet-basierte Informationssysteme der Bibliotheken', 15.-17.1.96 in Bielefeld.
Abstract: Beschreibung der verschiedenen Hilfsmittel zur inhaltlichen Suche von Angeboten im Internet
Anmerkung: Erscheint in: Zeitschrift für Bibliothekswesen und Bibliographie; abzurufen vom Server des Verfassers: http://waetjen.bis.uni-oldenburg.de
Themenfeld: Suchmaschinen
Objekt: Altavista ; Lycos ; MetaCrawler ; Yahoo ; WWW Worm ; WebCrawler ; Harvest ; Galaxy ; WAIS
-
9Kimmel, S.: Robot-generated databases on the World Wide Web.
In: Database. 19(1996) no.1, S.41-49.
Abstract: WWW robots are programs that attempt to gather and index WWW resources. They reside on a host computer and retrieve information from sites on the WWW using standrad protocols. Gives an overview of robots, and robot generated databases. Covers: WWW Worm; Lycos, WebCrawler; AliWeb; Harvest; Jumpstation II, and Open Text Index. Also discusses Yahoo and Trade Wave which are comparable tools for resource discovery
Themenfeld: Suchmaschinen
Objekt: WWW Worm ; Lycos ; WebCrawler ; AliWeb ; Harvest ; Jumpstation ; OpenText ; Yahoo ; TradeWave
-
10Bekavac, B.: Suchverfahren und Suchdienste des World Wide Web.
In: Nachrichten für Dokumentation. 47(1996) H.4, S.195-213.
Abstract: Das WWW ermöglicht den einfachen Zugriff auf eine große und stark wachsende Menge an Informationen. Die gezielte Suche nach relevanten WWW-Dokumenten wird zunehmens zu einer zentralen Aufgabe innerhalb des WWW. Dieser Beitrag beschreibt verschiedene Verfahren, die zur lokalen und globalen Suche im WWW verwendet werden. Client-basierte Suchtools mit automatischer Navigation, die bei einigen wenigen WWW-Browsern fest implementiert sind, ermöglichen eine Suche ausgehend von einer Startseite. Weitaus breiter Anwendung finden aber Server-basierte Suchverfahren, die sowohl die lokale Suche innerhalb eines WWW-Servers als auch die weltweite Suche über WWW-Kataloge und roboterbasiertes Suchmaschinen ermöglichen. In diesem Beitrag werden gängige verzeichnis- und roboterbasierte Suchdienste des WWW von ihrer Funktionalität her untersucht und verglichen. Erwähnt werden aber auch Beispiele alternativer Suchmaschinen sowie erweiterter Suchdienste, die eine zusätzliche Suche auch außerhalb des Internet ermöglichen
Inhalt: Enthält auch eine Liste von Allgemeinen (systematischen) Katalogen oder Verzeichnissen, wie Web.de, Dino, Magellan, CUI Catalog, Clearinghouse
Themenfeld: Suchmaschinen ; Grundlagen u. Einführungen: Allgemeine Literatur
Objekt: AltaVista ; Lycos ; OpenText ; InfoSeek ; Excite ; Yahoo ; WebCrawler ; Inktomi ; RBSE ; WWW Worm ; Flipper ; DejaNews ; AliWeb ; Harvest ; NlightN ; Omnis/Myriad
-
11Machovec, G.S.: World Wide Web search engines : Open Text, Harvest, 2ASK.
In: Online libraries and microcomputers. 14(1996) no.6/7, S.1-5.
Abstract: 2nd in a series of articles examining selected WWW searching engines. Reviews LiveLink Intranet and Open Text Index from Open Text Corporation, Harvest Broker from the Internet Research Task Force Research Group on Resource Discovery at the University of Colorado, Boulder, USA, and 2ASK from AtlasNet, Inc.
Themenfeld: Suchmaschinen
Objekt: OpenText ; LiveLink ; Harvest Broker ; 2ASK
-
12Notess, G.R.: Searching the World-Wide Web : Lycos, WebCrawler and more.
In: Online. 19(1995) no.4, S.48-53.
Abstract: Reviews the keyword indexes available for searching the WWW. Discusses: Lycos, WebCrawler, WWW Worm, Harvest Broker, and CUI. Yahoo is available for keyword searching of subject listings. The CUSI (Configurable Unified Search Engine) is a front end that provides 1 form for searching a number of indexes. A commercial service, InfoSeek, is being developed to search indexes
Themenfeld: Suchmaschinen
Objekt: Lycos ; WebCrawler ; WWW Worm ; Harvest Broker ; CUI ; CUSI ; InfoSeek ; Yahoo
-
13Courtois, M.P. ; Baer, W.M. ; Stark, M.: Cool tools for searching the Web : a performance evaluation.
In: Online. 19(1995) no.6, S.14-33.
Abstract: Darstellung zu den Hilfsmitteln für die inhaltliche Suche nach Angeboten im Internet
Themenfeld: Suchmaschinen
Objekt: CUI W3 ; Harvest ; Lycos ; OpenText ; WebCrawler ; WWW Worm ; Yahoo