Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 28. April 2022)
Suche
Suchergebnisse
Treffer 21–40 von 286
sortiert nach:
-
21Pajor, E.: ¬Una aplicación de topic map que puede ser un modelo posible : diagnóstico de situación.
In: ¬La interdisciplinariedad y la transdisciplinariedad en la organización del conocimiento científico : actas del VIII Congreso ISKO-España, León, 18, 19 y 20 de Abril de 2007 : Interdisciplinarity and transdisciplinarity in the organization of scientific knowledge. Ed.: B. Rodriguez Bravo u. M.L Alvite Diez. León : Universidad de León, Secretariado de Publicaciones, 2007. S.245-252.
Anmerkung: Originaltitel: An application of a topic map that mightbe a possible model
Objekt: Topic maps
-
22Görz, G.: Semantische Modellierung.[Präsentation].
In: http://www8.informatik.uni-erlangen.de/IMMD8/Lectures/DIGLIB/06-semant-mod.pdf.
Themenfeld: Wissensrepräsentation
Objekt: Topic maps ; CIDOC CRM
-
23Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien.
In: http://www.wim.uni-koeln.de/uploads/media/Tutorium_Informationsintegration_v32_2006-07-02_gesamt.pdf.
Abstract: Das Tutorium vermittelt theoretische Grundlagen der wissensorganisatorischen (semantischen) Integration und zeigt auch einige praktische Beispiele. Die Integration bezieht sich auf die Ebenen: Integration von ähnlichen Einträgen in verschiedenen Ontologien (Begriffe und Beziehungen) sowie von Aussagen über gleiche Aussagegegenstände und zugehörige Informationsressourcen. Hierzu werden ausgewählte semantische Wissenstechnologien (Topic Maps und RDF) und -werkzeuge vorgestellt und mit wissensorganisatorischen Grundlagen verbunden (z.B. SKOS - Simple Knowledge Organization Systems, http://www.w3.org/2004/02/skos/, oder Published Resource Identifiers).
Inhalt: Tutorium auf der 10. Deutschen ISKO-Tagung (Wissensorganisation 2006): Kompatibilität und Heterogenität in der Wissensorganisation Universität Wien, Montag 03. Juli 2006.
Themenfeld: Semantic Web ; Wissensrepräsentation
Objekt: Topic maps ; RDF ; SKOS
-
24Schmitz-Esser, W. ; Sigel, A.: Introducing terminology-based ontologies : Papers and Materials presented by the authors at the workshop "Introducing Terminology-based Ontologies" (Poli/Schmitz-Esser/Sigel) at the 9th International Conference of the International Society for Knowledge Organization (ISKO), Vienna, Austria, July 6th, 2006.
In: http://eprints.rclis.org/archive/00006612/01/Introducing_terminology-based_Ontologies_Schmitz-Esser_Sigel_2006-07-14.pdf.
Abstract: This work-in-progress communication contains the papers and materials presented by Winfried Schmitz-Esser and Alexander Sigel in the joint workshop (with Roberto Poli) "Introducing Terminology-based Ontologies" at the 9th International Conference of the International Society for Knowledge Organization (ISKO), Vienna, Austria, July 6th, 2006.
Inhalt: Inhalt: 1. From traditional Knowledge Organization Systems (authority files, classifications, thesauri) towards ontologies on the web (Alexander Sigel) (Tutorial. Paper with Slides interspersed) pp. 3-53 2. Introduction to Integrative Cross-Language Ontology (ICLO): Formalizing and interrelating textual knowledge to enable intelligent action and knowledge sharing (Winfried Schmitz-Esser) pp. 54-113 3. First Idea Sketch on Modelling ICLO with Topic Maps (Alexander Sigel) (Work in progress paper. Topic maps available from the author) pp. 114-130
Themenfeld: Semantic Web ; Wissensrepräsentation
Objekt: Topic maps
-
25Siebers, Q.H.J.F.: Implementing inference rules in the Topic maps model.
In: http://www.unimaas.nl/games/files/bsc/Siebers_BSc-paper.pdf.
Abstract: This paper supplies a theoretical approach on implementing inference rules in the Topic Maps model. Topic Maps is an ISO standard that allows for the modeling and representation of knowledge in an interchangeable form, that can be extended by inference rules. These rules specify conditions for inferrable facts. Any implementation requires a syntax for storage in a file, a storage model and method for processing and a system to keep track of changes in the inferred facts. The most flexible and optimisable storage model is a controlled cache, giving options for processing. Keeping track of changes is done by listeners. One of the most powerful applications of inference rules in Topic Maps is interoperability. By mapping ontologies to each other using inference rules as converter, it is possible to exchange extendable knowledge. Any implementation must choose methods and options optimized for the system it runs on, with the facilities available. Further research is required to analyze optimization problems between options.
Themenfeld: Wissensrepräsentation
Objekt: Topic maps
-
26Schiffhauer, N.: ¬Das Wissen der Welt aus dem Netz und von der Scheibe : Brockhaus ist führend bei der Software, die in Alltagssprache gestellte Fragen beantwortet.
In: Frankfurter Allgemeine Zeitung. Nr.242 vom 18.10.2005, S.T1.
(Technik und Motor)
Abstract: Früh beginnt der Enzyklopädien-Herbst. Die 2006er Scheiben von Microsoft Encarta und Encyclopaedia Britannica 2006 erreichten uns im August, in dem wir zudem ausgiebig in der elektronischen Version der 21. Auflage des Brockhaus-Wissensmassivs stöbern konnten. Dieses ist Mitte November in Form eines Ein-Gigabyte-USB-Sticks lieferbar, der den gesamten Textbestand der 30 gedruckten Bände enthält und mit Zusatzmaterial aus der Brockhaus-Bibliothek angereichert ist. Zwei auf Festplatte kopierbare Multimedia-DVDs ergänzen ihn. In dieser Klasse der Edelauskunfteien sieht sich die Internet-Enzyklopädie Wikipedia mitmischen, die zwar laufend aktualisiert wird, ohne Internetzugang aber ebenfalls als CD greifbar ist. Damit nicht genug im Enzyklopädienland, hat doch die deutsch-rumänische Crew des Berliner Digitalisierungsspezialisten Direktmedia mit "Meyers Konversationslexikon" von 1906 und "Pierer's Universal-Lexikon" (1857 bis 1865) zwei grandiose historische Enzyklopädien zu einem Spottpreis als Faksimile und mittels Software durchsuchbarem Text auf DVD gebrannt. Mehr Wissen für weniger Geld war nie. Jedes dieser Nachschlagewerke ist empfehlenswert, und fast alle haben sie ihre Stärken wie Schwächen, die mit ihrer Entstehung sowie der Geschichte ihrer Herausgeber und deren Investitionsbereitschaft zusammenhängen. Wir haben uns nicht nur die neuesten Ausgaben erklickt, sondern uns auch in den Redaktionen und Softwarelabors umgetan.
Inhalt: Mit einer Abb. der 3D-Gestaltung des Wissensraums in der Brockhaus Enzyklopädie
Themenfeld: Informationsmittel
Objekt: Brockhaus Enzyklopädie digital ; Meyers Konversationslexikon 1906 ; Pierer's Universal-Lexikon ; Encarta 2006 ; Encyclopaedia Britannica ; Wikipedia ; Krünitz-Enzyklopädie ; Ersch-Gruber ; Encyclopedie Diderot/d'Alembert ; Zedler
-
27Herb, U. ; Wahner, U.: Digitale Psychologie-Information.
In: Bibliotheksdienst. 39(2005) H.6, S.740-747.
Abstract: In der Psychologie bündeln das Sondersammelgebiet Psychologie der Saarländischen Universitäts- und Landesbibliothek (SULB) und das Zentrum für Psychologische Information und Dokumentation (ZPID) in einem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt ihre Aktivitäten im Bereich der digitalen Psychologieinformation. Die zentralen Ziele des DFG-Projekts "Digitale Psychologie-Information" sind: - die Entwicklung und Propagierung eines Metadatenstandards für das Fach Psychologie, - die Anpassung des Spiders, Indexers und der Retrievalkomponenten der psychologiespezifischen Suchmaschine PsychSpider an diesen Metadatenstandard, - die Einrichtung eines Volltextservers für elektronische Dokumente aus der Psychologie, PsyDok, - die Integration der Linksammlung PsychLinker (ZPID) und des Fachinformationsführers Psychologie FIPS (SULB), - die Beteiligung der Fachcommunity an der Erschließung hochwertiger Internetressourcen.
Themenfeld: Informationsmittel
Wissenschaftsfach: Psychologie
Objekt: ZPID
-
28Trunk, D.: Semantische Netze in Informationssystemen : Verbesserung der Suche durch Interaktion und Visualisierung.
Köln : Fachhochschule, Institut für Informationswissenschaft, 2005. 110 S.
(Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.51)
Abstract: Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hy-pertext mit dem etablierte Point- und Klickverfahren an. Eine Visualisierung zur Unterstützung kognitiver Fähigkeiten kann durch eine Darstellung der Informationen mit Hilfe von Punkten und Linien erfolgen. Vorgestellt wer-den die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswis-senschaft der Firma AGI - Information Management Consultants.
Inhalt: Volltext unter: http://www.fbi.fh-koeln.de/institut/papers/kabi/volltexte/Band051.pdf
Themenfeld: Visualisierung
Objekt: Brockhaus multimedial ; WordSurfer ; SpiderSearch ; dandelon.com
-
29Stadtbibliothek Reutlingen: Web-Auftritt komplett mit Web-Opac Premium von BOND realisiert.
In: BuB. 57(2005) H.4, S.271.
Inhalt: "Die Stadtbibliothek Reutlingen (www.stadtbibliothek-reutlingen.de) hat ihren gesamten Internetauftritt auf den Web-Opac Premium von BOND umgerüstet. Der WebOpac Premium ist weit mehr als ein gewöhnlicher Web-Opac. Vielmehr ist er ein Internet-Por-tal, in dessen Struktur alle Informationen und Angebote der Stadtbibliothek integriert sind. Mit dem Web-Opac Premium konnte die Bibliothek bei der Neugestaltung ihrer Internetseiten auf ein bestehendes und flexibel anpassbares Produkt zurückgreifen, um so Zeit und Arbeit zu sparen. Bestehende HTML-Seiten der alten Homepage wurden einfach in die neue Website übernommen. Zudem erhöhen viele Zusatzfunktionen des Web-Opac Premium die Attraktivität der Bibliothek. Neu ist auch die »Assoziative Suche« (Spider Search), mit der die Bibliotheksbenutzer bei der Mediensuche neue Sinnzusammenhänge erschließen und so ihre Suchergebnisse verbessern können. Für die übersichtliche Gliederung der Website sorgen die horizontale Navigationsleiste nach Abteilungen und Zweigstellen der Stadtbibliothek sowie ein blaues Navigationselement im linken Frame, das sich mit sprechenden Begriffen an alle Benutzer und bestimmte Zielgruppen der Bibliothek wendet. Unter dem Stichwort »Suche« können Leser sowohl nach Inhalten auf der Website als auch über drei Wege nach Medien suchen: über den Web-Opac der Stadtbibliothek, die Assoziative Mediensuche im Katalog der Bibliothek und in regionalen Katalogen, wie denen der Bibliothek der Fachhochschule Reutlingen, der UB oder der Stadtbücherei Tübingen. Der Bereich »Service« bietet viele Informationen zur Bibliothek und deren Benutzung. Unter »Meine Bibliothek« kann der Leser nach der Anmeldung sein Benutzerkonto einsehen, die Leihfrist der entliehenen Medien verlängern und sich sein persönliches Interessenprofil abspeichern. Das heißt der Leser legt gewünschte Stichwörter, Verfasser, Mediengruppen oder Interessenkreise fest und wird regelmäßig zu seinen Wunschthemen informiert. Der Bereich »Veranstaltungen« informiert über die aktuellen Veranstaltungen, untergliedert nach Kinderbibliothek, Hauptstelle und Zweigstellen. Das eingesetzte Veranstaltungsmodul des Web-Opacs Premium übernimmt die automatisierte Aktualisierung der angezeigten Veranstaltungen durch Angabe von Start- und Ablaufdatum."
Anmerkung: Vgl.: www.bond-online. de
Themenfeld: OPAC ; Visualisierung
Objekt: BOND ; Spider Search
Land/Ort: D ; Reutlingen
-
30BOND: Assoziativ-OPAC SpiderSearch.
In: Bibliotheksdienst. 39(2005) H.4, S.518.
Inhalt: "BOND bietet den Assoziativ-Web-OPAC SpiderSearch als ein Zusatzmodul zu seiner Bibliothekssoftware. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinn- oder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der angebotenen Assoziative kann sich der Leser einfach und anschaulich im Internet durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern von Suchergebnislisten ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende und nach Relevanz geordnete Medien. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Vor allem bei Öffentlichen Bibliotheken stößt SpiderSearch auf großes Interesse. Dieses komfortable Sucherlebnis bieten u.a. die Stadtbibliotheken in Reutlingen und Herten ihren Lesern. Interessenten erhalten nähere Informationen bei BOND unter der Telefonnummer: 06324 9612-311 oder E-Mail: bond@bond-online.de"
Themenfeld: OPAC
Objekt: BOND ; SpiderSearch
-
31Schneller Weg zum Volltext in MedPilot : Neuer Service durch erfolgreiche Kooperation mit der Elektronischen Zeitschriftenbibliothek.
In: Bibliotheksdienst. 39(2005) H.5, S.679-682.
Abstract: Die Virtuelle Fachbibliothek Medizin (www.medpilot.de) führt die Nutzer nun noch schneller zum Volltext. Dieser neue Service ist in Kooperation mit der Elektronischen Zeitschriftenbibliothek (EZB) entstanden. MedPilot hat nun eine direkte Verlinkung mit der EZB in seinen Dienst integriert. Dadurch werden dem Nutzer in MedPilot Links zur EZB angezeigt, die ihn von einem recherchierten Artikel zum Volltext in elektronischen Zeitschriften führen. Das für die EZB typische Ampelsymbol zeigt in der Trefferliste von MedPilot an, ob ein Online-Volltext des gefundenen Artikels kostenfrei oder über eine lokale Lizenz einer an der EZB teilnehmenden Bibliothek abgerufen werden kann.
Wissenschaftsfach: Medizin
Objekt: EZB ; ViFa Medizin ; MedPilot
Land/Ort: D
-
32BOND: Assoziativ-Opac SpiderSearch.
In: BuB. 57(2005) H.5, S.338.
Abstract: Der Hersteller von Bibliothekssoftware BOND bietet zusätzlich zum bewährten WebOpac den Assoziativ-Web-Opac SpiderSearch. Dieser graphische Web-Opac sucht zu einem Stichwort Assoziative, das heißt sinn- oder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriffherum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich im Internet durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, sodass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen WebOpac, enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Bibliothekssoftware von BOND. Vor allem bei Öffentlichen Bibliotheken stößt SpiderSearch auf großes Interesse. Dieses komfortable Sucherlebnis bieten unter anderem die Stadtbibliotheken in Reutlingen und Herren ihren Lesern.
Anmerkung: Vgl.: www. bond-online. de
Themenfeld: OPAC
Objekt: SpiderSearch ; BOND
-
33Lehmann, K. ; Deggerich, M.: Neuer Wein in neuen Schläuchen : 10 Jahre Online-Journalismus. Interview mit Markus Deggerich.
In: ¬Die Google-Gesellschaft: Vom digitalen Wandel des Wissens. Hrsg.: K. Lehmann, M. Schetsche. Transcript-Verlag : Bielefeld, 2005. S.229-233.
Abstract: Im Herbst 2004 feierte der deutsche Online-Journalismus sein zehnjähriges Jubiläum. Der Start von Spiegel Online wird als Geburtsstunde des etwas anderen Journalismus betrachtet. Die »Feierlichkeiten« wurden dabei nicht für überschwängliche Glückwünsche genutzt, sondern für eine kritische Bestandsaufnahme: Denn ob es einen Online-Journalismus gibt, bestreiten etliche Medienvertreter seit dem ersten Tag.
Themenfeld: Internet
Wissenschaftsfach: Kommunikationswissenschaften ; Journalismus
Objekt: Spiegel Online
-
34Grafische Medienrecherche in Öffentlichen Bibliotheken via Internet.
In: B.I.T.online. 8(2005) H.2, S.193.
Abstract: Der Hersteller von Bibliothekssoftware, BOND, bietet zwei Tools, mit denen die Bürger via Internet im Medienbestand ihrer Stadtbibliothek recherchieren können: den bewährten Web-OPAC und den Assoziativ-Web-OPAC SpiderSearch. Der graphische Web-OPAC SpiderSearch sucht zu einem Stichwort Assoziative, d.h. sinnoder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Bürger sehr einfach und anschaulich im Internet durch den Medienbestand seiner Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe, kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhalten die Bürger Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Bibliothekssoftware von BOND. Dieses komfortable Sucherlebnis bieten u.a. die Stadtbibliotheken in Reutlingen und Herten ihren Lesern. Interessenten erhalten nähere Informationen bei BOND unter der Telefonnummer: (0 63 24) 961 23 11 oder E-Mail: bond@bond-online.de.
Themenfeld: OPAC
Objekt: SpiderSearch
-
35Schroeder, K.: Zum Nutzen von »Persistent Identifiers« : von CARMEN-AP4 über EPICUR zum Normalbetrieb.
In: Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.3/4, S.181-187.
Abstract: Elektronische Publikationen sollen langfristig referenzierbar und benutzbar sein. Ein Ziel, das sich nur durch kooperative Aktivitäten im Bereich der Publikation, Erschließung und Langzeitarchivierung digitaler Ressourcen mit einer dauerhaften Infrastruktur realisieren lässt. Ein Aspekt in diesem Themenkomplex ist die dauerhafte Identifizierung elektronischer Publikationen verbunden mit einer Garantie zur langfristigen Adressierung. Die Deutsche Bibliothek sammelt seit Beginn des Projektes CARMEN-AP4 im September 2001 Erfahrungen in der Vergabe, Verwaltung und Auflösung von Persistent Identifiers (PI) in Form des internationalen Standards »Uniform Resource Names« (URN). Darauf aufbauend wurde im Rahmen des EPICUR-Projektes der Service erweitert und in eine produktive technische Umgebung überführt. Der vorliegende Artikel diskutiert den im EPICUR-Projekt verfolgten Ansatz zur Anwendung von URNs als primärer Persistent Identifier (PI), stellt die Ergebnisse dar und skizziert die Planungen zur Integration des EPICUR-Service in den Normalbetrieb Der Deutschen Bibliothek.
Behandelte Form: Elektronische Dokumente
Objekt: CARMEN ; EPICUR ; URN ; Persistent Identifier
Land/Ort: D
-
36OCLC PICA übernimmt die Sisis Informationssysteme.
In: BuB. 57(2005) H.10, S.691.
Abstract: Mit dem Ziel, ihre Position als einer der führenden Hersteller von Bibliothekssystemen weiter auszubauen, übernimmt die OCLC PICA B.V. in Leiden (NL) die Sisis Informationssysteme GmbH in Oberhaching. Beide Unternehmen ergänzen sich hervorragend in technologischer Hinsichtwie auch im Servicebereich. Durch die entstehenden Synergien kann die neue, gestärkte Organisation ihre Produkte und Services künftig noch schneller und wirtschaftlicher anbieten.
Inhalt: "Der stetige Wandel macht auch vor Bibliotheken nicht Halt. Immer wichtiger werden neue Geschäftsprozesse und die optimale Vernetzung der unterschiedlichen Arbeitsbereiche. Das Behaupten der Spitzenposition in diesem Markt erfordert ständige Investitionen und Ausbau der Ressourcen. Mit der Obernahme der Sisis Informationssysteme GmbH und den dort vorhandenen Kenntnissen und Fähigkeiten wurde ein effizienter Weg gefunden, die gegenwärtige Marktposition auszubauen und die Produktqualität weiter zu verbessern. Die Sisis Informationssysteme ist ein im Markt bekannter und erfolgreicher Anbieter von Bibliothekssystemen und Portallösungen mit Kunden in Deutschland, der Schweiz und den Niederlanden. Wie OCLC PICA suchte auch das Sisis Management nach Lösungen, um weiterhin in Produkte und Marktentwicklungen zu investieren und die erreichte Marktposition und Produktqualität auszubauen. Der erfolgte Zusammenschluss bietet hierfür die besten Voraussetzungen. Künftig werden OCLC PICA und Sisis ihre Technologien, Fähigkeiten und Methoden zum Vorteil ihrer Kunden gemeinsam nutzen und aufeinander abstimmen und einen besseren und vor allem kundennäheren Service anbieten können. Durch die Verstärkung des Entwicklungsbereichs kann der Ausbau der vorhandenen Produkte fachlich und funktional vorangetrieben werden. Die Kunden werden von der wechselseitigen Nutzung innovativer Komponenten und dem erweiterten Produktportfolio nur profitieren."
Anmerkung: Vgl.: www. oclcpica.org und www.sisis.de
Objekt: OCLC ; Pica ; Sisis
-
37Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders.
Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster, 2005. 22 S.
Abstract: Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
Inhalt: Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
Themenfeld: Suchmaschinen
Objekt: InfoSpider
-
38Hartkopf, A.: Wer hat den Kleinsten? : Preissuchmaschinen.
In: PC Magazin. 2005, H.10, S.188-189.
(Internet + Mobile : Geld sparen)
Abstract: In Zeiten von Lohnkürzungen und unbezahlter Mehrarbeit wird die Suche nach den niedrigsten Preisen immer wichtiger. Preissuchmaschinen bewerten, vergleichen und öffnen den Weg zu den wahren Schnäppchen im Internet.
Inhalt: "Früher war es einfacher. Da ging man bei größeren Anschaffungen durch zwei oder drei Läden, notierte sich Preise und vielleicht Lieferbedingungen. Und kaufte. Keinen Münchner kratzte, ob der gesuchte Artikel in Leipzig oder Buxtehude deutlich billiger zu haben wäre. Erst das Internet brachte den Fernhandel richtig in Schwung. Die Datenbank macht's möglich. Tausende Einzelhändler bieten ihre Ware online an, und Sie können vergleichen. Preissuchmaschinen wollen den Usern eine möglichst breite Auswahl an Händlern und Produkten bieten. Idealerweise sollte das Shoppen dabei bis auf den finalen Klick, die Bestellung, auf einer Website vonstatten gehen können. Grundsätzlich gibt es zwei Wege, um an das begehrte Gut zu gelangen: Produktnamen eintippen oder sich durch eine Hierarchie von Kategorien durchklicken (Elektronik/Fernseher/ LCD/Lieblingsmarke). Den Weg der Tipper verfolgt am konsequentesten Google-Ableger Froogle. Eine Suche in Kategorien ist auf der Startseite nicht vorgesehen. Vielmehr setzt Froogle auf das von Google vertraute Look and Feel sowie die bewährte Suchtechnik, sparsame Oberfläche, einfache Ergebnisliste. Die Links führen direkt zu den Produkten. Rechts im Fenster gibt es eine Reihe von Textanzeigen, links ein paar Ansichtund Sortieroptionen. Auch das Preissegment lässt sich hier eingrenzen. Wer lieber nach Kategorien sucht, muss dafür in die erweiterte Suche wechseln. Interessant ist hierbei besonders die Möglichkeit, nach den gewünschten Wörtern entweder in den Produktnamen, den -beschreibungen oder in beiden gleichzeitig suchen zu lassen. Bei Froogle gelistete Händler geben standardisierte Informationen, so genannte Feeds, an den Preissuchdienst weiter. Für die Aktualität sind im Wesentlichen diese Feeds verantwortlich. Darüber hinaus setzt Froogle auf die von Google erprobte Suchtechnologie. Spider besuchen Websites, forschen nach Produkten und Preisen. Froogles Technik errechnet eine Rangfolge, nach der die Ergebnisse angezeigt werden. Händler haben keinen Einfluss auf die Rangfolge in den Ergebnislisten. Die Teilnahme bei Froogle ist für Händler kostenlos. Auch Kelkoo verfügt über die manchmal wichtige fehlertolerante Suche. Das seit 2003 in Deutschland aktive Unternehmen gehört seit März letzten Jahres zu Yahoo. Es listet derzeit über 6 Millionen Produkte aus rund 2000 Shops. Kelkoo kooperiert mit diesen ausgewählten Händlern. Je nach Modell können diese sich kostenlos registrieren lassen. Ihre Angebote erscheinen dann in den Ergebnislisten. Oder sie gehen eine kostenpflichtige PremiumPartnerschaft ein. Dafür erhalten Sie zusätzliche Leistungen wie Nennung der Lieferkosten oder Einbindung in den Preisvergleich (und nicht nur die Ergebnisliste). Auch die Händlerdaten werden beim Premium-Angebot in Kelkoos Shopübersicht eingebunden. Kelkoo aktualisiert seine Datenbanken (werk-)täglich, um immer auch die tagesaktuellen Angebote der Händler anzeigen zu können. ; Imperative Kategorien Für Tippfaule hält Kelkoo Produktkategorien mit leicht stylischen Namen wie "Beauty" oder "Accessoires" parat. Das trägt nicht immer zur besseren Orientierung bei. Wer sich nicht auskennt, kann sich jedoch die Unterkategorien anzeigen lassen. Im Anschluss an die Ergebnislisten tauchen sämtliche (über 100) Kategorien sogar ohne Hierarchie auf, dankenswerterweise alphabetisch geordnet. Die Ergebnisse sind direkt zu den Produkten auf den Händler-Sites verlinkt. Im Unterschied etwa zu Froogle gibt es bei Kelkoo eine Extra-Funktion für den Preisvergleich. Neuer Renner Recht jung im deutschen Markt ist PriceRunner.com. Die ursprünglich aus Schweden kommende Firma listet derzeit rund 300000 Produkte von ca. 3 500 Händlern. Die Preise sind tagesaktuell und werden durch offline ermittelte Preise aus Ladengeschäften ergänzt (derzeit in Berlin, Hamburg, Köln und München). Die Produktpalette mit detaillierten Informationen zu den Produkten reicht von Elektronik über Haushaltsgeräte bis zu Sportartikeln und Schmuck. Wer PriceRunner nutzen will, sollte sich registrieren lassen. Nur so ist die Teilnahme an der Community möglich. Registrierte können sich auch alarmieren lassen, wenn ein Produktpreis auf das gewünschte Niveau fällt. Die Suche nach einem Gerät ist über eine Eingabemaske oder übersichtlich gegliederte Produktkategorien möglich. Interessant sind dabei die vielfachen und einleuchtenden Optionen. Wer z. B. nach Fernsehern sucht, erhält im linken Teil der Seite eine Reihe von Aufklappmenüs. Anhand dieser kann er etwa den gewünschten Bildschirmtyp (Röhre, LCD, Plasma), die Größe oder die Soundeigenschaften auswählen. Das hilft, die Suche gehörig einzuschränken. Die Suchergebnisse lassen sich nach Preis, Beliebtheit des Produkts, Name usw. sortieren. Technisch verunsicherte Konsumenten erhalten verständlich geschriebene Tipps zum Kauf. Neben der Bewertung durch die PriceRunnerCommunity werden - so weit vorhanden - auch professionelle Tests verlinkt. Schließlich zeigt die Ergebnisliste mit dem Preis auch das Alter des Eintrags an. Selbst wenn die Großen auf dem Markt den Überblich über die mesten Produkte bieten, kann auch ein Preisvergleich bei kleinen Suchhilfen lohnen. Manche machen mit Zusatzangeboten auf sich aufmerksam. So stellt der Elektronikspezialist Guenstiger.de die Preisentwicklung seiner gelisteten Produkte grafisch dar. Diese Charts vermitteln einen Eindruck davon, ob es sich lohnen könnte, auf weiter sinkende Preise zu warten. Billiger.de zum Beispiel versucht, für Leute mit schmaler Brieftasche auch den Finanzierungsaspekt mit abzudecken. Sites wie Ciao oder Dooyoo räumen schließlich der Community großen Stellenwert ein. Der Erfahrungsaustausch wirkt in zwei Richtungen. Zum einen gewinnen Kaufwillige einen Eindruck von dem Artikel, den sie erstehen wollen. Zum anderen lernen sie manches über die Händler, deren Zuverlässigkeit und Kundenfreundlichkeit. Ein Suchportal für Testberichte von Fachzeitschriften bis zur Stiftung Warentest bildet Testberichte.de. Die Site bietet einen Überblick über professionelle Tests zu einer Vielfalt an Produkten."
Themenfeld: Suchmaschinen
Objekt: Froogle ; Billiger.de ; Ciao ; Dooyoo ; Evendi ; Geizhals.net ; Geizkragen.de ; GünsTiger ; Idealo ; Kelkoo ; Lycos Shopping ; Preisauskunft.de ; Preissuchmaschine.de ; Preistester.de ; Presitrend.de ; PriceRunner ; Shopping.de ; Wowowo ; Yopi
-
39Robertson, S.: How Okapi came to TREC.
In: TREC: experiment and evaluation in information retrieval. Ed.: E.M. Voorhees, u. D.K. Harman. Cambridge, MA : MIT Press, 2005. S.287-300.
Themenfeld: Retrievalstudien
Objekt: TREC ; OKAPI
-
40Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche.
Frankfurt a.M. : Lang, 2005. 176 S.
ISBN 3-631-53684-4
(Europäische Hochschulschriften: Reihe 41: Informatik; Bd.43)
Abstract: Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
Anmerkung: Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären. ; Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.). ; Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
Themenfeld: Automatisches Klassifizieren ; Grundlagen u. Einführungen: Allgemeine Literatur
Objekt: GerHARD ; DESIRE ; Scorpion