Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 28. April 2022)
Suche
Suchergebnisse
Treffer 1–20 von 23
sortiert nach:
-
1Köstlbacher, A. ; Maurus, J.: Semantische Wikis für das Wissensmanagement : Reif für den praktischen Einsatz?.
In: Information - Wissenschaft und Praxis. 60(2009) H.4, S.225-231.
Abstract: Wikis haben sich als Instrument des Wissensmanagements sowohl im Unternehmensumfeld als auch im wissenschaftlichen Bereich inzwischen etabliert. Inhalte lassen sich in Form von Wikiartikeln gut von verschieden großen Communities erstellen, bearbeiten und nutzen. Auch die formalisierte Repräsentation von Wissen mit Hilfe von Semantic- Web-Technologien gewinnt an Fahrt. Eine Möglichkeit, diese beiden Ansätze in einem Social- Semantic-Web zusammenzuführen, bieten so genannte Semantische Wikis. Sie ermöglichen es, kollaborativ Artikel zu erstellen, wie in einem herkömmlichen Wiki und darüber hinaus recherchierbare Fakten zu den Artikeln in einer formalen Sprache zu erfassen. Dieser Artikel gibt einen Überblick über aktuell verfügbare Systeme und einige Anwendungsmöglichkeiten.
Themenfeld: Semantic Web
Objekt: Wiki ; Semantic MediaWiki ; IkeWiki ; OntoWiki ; AceWiki ; WikidSmart
Anwendungsfeld: Informationswirtschaft
-
2Salton, G.: SMART System: 1961-1976.ELIS Classic, from 1980.
In: Encyclopedia of library and information sciences. 3rd ed. Ed.: M.J. Bates. London : Taylor & Francis, 2009. S.xx-xx.
Abstract: While a number of researchers had experimented during the 1950's on automatic indexing and retrieval in various forms, it was Gerard Salton who brought the information retrieval experimental paradigm to full fruition, with his "SMART" system. His work has been enormously influential.
Anmerkung: Vgl.: http://www.tandfonline.com/doi/book/10.1081/E-ELIS3.
Themenfeld: Automatisches Indexieren
Objekt: SMART
-
3Buckley, C.: ¬The SMART Project at TREC.
In: TREC: experiment and evaluation in information retrieval. Ed.: E.M. Voorhees, u. D.K. Harman. Cambridge, MA : MIT Press, 2005. S.301-320.
Themenfeld: Retrievalstudien
Objekt: TREC ; SMART
-
4Kostenfreie Recherche mit DIMDI Smartsearch.
In: Online Mitteilungen. 2004, Nr.79, S.17-18[=Mitteilungen VÖB 57(2004) H.2].
Inhalt: "Die DIMDI SmartSearch, die neue Benutzeroberfläche zur Datenbankrecherche beim DIMDI, steht jetzt auch für die kostenfreie Recherche in 36 medizinischen Literatur- und Faktendatenbanken zur Verfügung. Die neue Suchfunktion löst mit optimierter Technik und im komfortablen Layout die bisherige grips-WebSearch ab. Für die Recherche in toxikologischen Faktendatenbanken wurde die DIMDI SmartSearch speziell angepasst."
Anmerkung: Vgl.: http://www.dimdi.de/dynamic/de/dimdi/presse/newsarticle.html?newsld=2737&channelld=156 © DIMDI-Newsletter vom 15.4.2004
Objekt: DIMDI ; Smartsearch ; GRIPS-Web
-
5Haller, S.H.M.: Mappingverfahren zur Wissensorganisation.
Berlin : Freie Universität / Fachbereich Erziehungswissenschaft und Psychologie, 2002. 100 S.
Inhalt: Diplomarbeit, Freie Universität Berlin / Fachbereich Erziehungswissenschaft und Psychologie / Diplomstudiengang Psychologie; vgl.: http://heikohaller.de/literatur/diplomarbeit/ bzw. www.heikohaller.de/toolvergleich/.
Themenfeld: Visualisierung ; Wissensrepräsentation
Objekt: Mind Manager ; Inspiration ; Visual Knowledge Builder ; SMART Ideas ; Knowledge Manager ; Axon ; cMap Tools ; SmartDraw ; ConceptDraw ; MindMapper ; Visual Mind ; Ygnius ; Brain
-
6Hamdorf, K.: Wer katalogosiert das Web? : Dokumentarische Arbeit als Big Business und Freiwilligen-Projekt.
In: nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.263-270.
Abstract: Webkataloge sind gemeinsam mit Suchmaschinen die entscheidenden Navigationshilfen im Internet-, ursprünglich als Hobby begonnene Webverzeichnisse haben sich zu großen Internetportalen wie Yahoo! oder Web.de entwickelt. Die Kataloge sind innerhalb weniger Jahre bis auf über zwei Millionen Einträge gewachsen; das Vorgehen bei der Erstellung ihrer Systematik und die Qualität der Erfassung der Websites sind von diesem rapiden Wachstum geprägt. Die Tatsache, dass die Webkataloge überwiegend von "Nicht-Dokumentaren" erstellt werden, ist ein weiterer entscheidender Punkt zum Verständnis der Katalogentwicklung in den USA und Deutschland. Dokumentarisches bzw. bibliothekarisches Know-how spielt nur eine Nebenrolle bei ihrer Entwicklung. Am deutlichsten wird dies beim nichtkommerziellen "Open Directory Project", das in den letzten drei Jahren den weltgrößten Webkatalog erarbeitet hat. Auf Grund der Konkurrenzsituation auf dem Portalmarkt und des hohen Personalaufwands für die Katalogerstellung hat in den USA eine Marktbereinigung auf nur noch drei große Webkatalog-Anbieter stattgefunden; diese Faktoren werden auch die Entwicklung der Kataloge im deutschsprachigen Raum beeinflussen. Ein guter Zeitpunkt, um eine Zwischenbilanz zu ziehen und über die Trends in diesem Bereich zu berichten
Themenfeld: Suchmaschinen
Objekt: Open Directory Project ; LookSmart ; Yahoo ; Snap/NBCi ; AllesKlar ; DINO ; InfoSeek ; Lycos ; Web.de
-
7Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte.
In: Frankfurter Allgemeine Zeitung. Nr.134 vom 12.6.2001, S.T1.
Abstract: Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau. ; Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen. ; Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare. ; Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend. ; Die Beiträge, eine Art E-Mails mit gestrengen Usancen, finden sich dann auf vielen kooperierenden Servern, auf uralten nichtkommerziellen Fido- oder Zerberus-Boxen und bei großen Internet-Anbietern à la T-Online, die die Eintrage wie kommunizierende Röhren untereinander austauschen. Die mit Newsreader-Zusatzsoftware zu lesenden, zuweilen ruppigen Beiträge dieser Zehntausenden von Newsgroups im "Usenet" sind ein wahres Dorado für Tips und Meinungen, für praktische Hilfe und unermüdliche Kollegialität - oft zum Ärger der Produkthersteller, gelegentlich zur Entlastung von deren Kundendiensten. Frage-und-Antwort-Fäden (Threads) verästeln sich zu einem Baum der Meinungen und des Wissens. Einen Überblick gibt etwa Tile.net oder groups.google.com, versuchsweise mag man als Sprachfreund bei http://faql.de einsteigen. Über www.deja.com konnte man überall browsergeführt mitdiskutieren und seinen Senf dazugeben. Ende 2000 ging es damit bergab, am 12. Februar stellte Deja seinen Dienst ein. Domänenname und Datenbank (mehr als ein Terabyte mit über 500 Millionen Beiträgen seit 1995) wurden von Altavista an Google verkauft und sind unter der alten Adresse lebendig. Nur neue Beiträge kann man dort nicht mehr loswerden und muß sich dazu schon direkt zum jeweiligen Forum bemühen. Manche Suchmaschinen bieten maschinelle Übersetzungen. Die Ergebnisse helfen Amerikanern, uns zu verstehen, mit Phantasie und gutem Willen, Auf seiner sehenswerten englischen Suchseite bietet dies Google an, so wie seit längerem Altavista - vom selben Übersetzer. Gefundenen Text bekommt man ins Englische übersetzt; klickt man weiter, so auch die weiteren Seiten. Man sollte sich nicht darüber lustig machen, selbst wenn eines Dichters Werk als "its factory" erscheint und die Stadt Essen als "meal". Die Wunscheinstellungen (speicherbar, wenn man Cookies zuläßt) bei Google lassen übrigens zu, daß die gefundenen Seiten, ob original, ob übersetzt, in einem neuen Browserfenster aufscheinen.'Alle anderen machen das auch wenn man die Shift-Taste beim Klicken drückt. Hoffen wir, daß uns diese offene Wunderwelt des Internet mit ihren Suchmaschinen noch lange erhalten bleibt und daß kommende Multimedia-Inhalte nicht in einem Wust von Formaten untergehen. Das Netz muß Schranken überwinden können, für Maschinen, letztlich aber von Mensch zu Mensch
Themenfeld: Suchmaschinen
Objekt: Google ; AltaVista ; Inktomi ; Yahoo ; MetaCrawler ; AlltheWeb ; Webtop ; MSN ; Looksmart ; Xipolis ; Brockhaus ; Wissen.de ; Britannica
-
8¬Der große, exklusive TOMORROW-Text : Die beste Suchmaschine der Welt ... und der beste Web-Katalog ... und der beste Metasucher.
In: Tomorrow. 2000, H.5, S.38-81.
Abstract: Tausende von Suchhilfen stehen im Internet zur Verfügung. Doch welche bringen Surfern die besten Resultate? - Mehrere Abbildungen
Inhalt: Darunter Einzel-Beiträge zu: Acoon, Yahoo, MetaGer; Interviews mit den Suchmaschinen-Bossen zu: Wer ist der Lieblingskonkurrent?; So arbeitet eine Suchmaschine; KARZAUNINKAT, S.: So einfach finden sie, was Sie gerade wollen; 20 Fragen: Welcher Suchmaschinen-Typ sind Sie?; KARZAUNINKAT, S.: Kontrolle ist der beste Schutz; BETZ, S.: Darum suchen Sie kostenlos; GLASER, S.: Zwischen Quatsch und Quantenphysik; Suchmaschinen für Spezialfragen
Anmerkung: Die Tester waren: Fa. Keynote Systems und Stefan Karzauninkat
Themenfeld: Suchmaschinen
Objekt: Acoon ; Fast ; Fireball ; Lycos ; Google ; AltaVista ; Speedfind ; NorthernLight ; HotBot ; Excite ; Spider.de ; Yahoo ; Web.de ; AllesKlar ; Looksmart ; Dino ; MetaGer ; MetaSpinner ; SavvySearch ; ProFusion
-
9Frants, V.I. ; Shapiro, J. ; Taksa, I. ; Voiskunskii, V.G.: Boolean search : current state and perspectives.
In: Journal of the American Society for Information Science. 50(1999) no.1, S.86-95.
Abstract: Most of the operational information retrieval (IR) systems in existence today use Boolean logic during search. Such systems are usually called Boolean IR systems. These systems, as any other IR systems, are not perfect and the problem of their development (and hence providing better quality service for real users) is one of the most important problems in information science. From this viewpoint, the article analyzes existing criticisms of operational systems and points out some of their positive features. At the same time, certain negative effects which hinder the development of existing systems are considered. Finally, the article provides several conclusions about using Boolean logic in developing multiversion IR systems
Objekt: SMART
-
10Optimierung von Suchmaschinen.
In: CD-Info. 1999, H.10, S.65.
Anmerkung: Vgl.: http://www.looksmart.com/live/; http://www.directhit.com
Themenfeld: Suchmaschinen
Objekt: LookSmart ; DirectHit
-
11Sirsi introduces SmartPORT cataloging utility.
In: Advanced technology libraries. 27(1998) no.9, S.3.
Abstract: Sirsi Co. have introduced their SmartPORT computerized cataloguing utility, which simultaneously searches multiple Z39.50 databases to capture and download cataloguing records for easy local library review and editing
Themenfeld: Suchoberflächen ; Internet
Objekt: SmartPORT ; Z39.50
-
12Srinivasan, P.: Query expansion and MEDLINE.
In: Information processing and management. 32(1996) no.4, S.431-443.
Abstract: Evaluates the retrieval effectiveness of query expansion strategies on a test collection of the medical database MEDLINE using Cornell University's SMART retrieval system. Tests 3 expansion strategies for their ability to identify appropriate MeSH terms for user queries. Compares retrieval effectiveness using the original unexpanded and the alternative expanded user queries on a collection of 75 queries and 2.334 Medline citations. Recommends query expansions using retrieval feedback for adding MeSH search terms to a user's initial query
Themenfeld: Retrievalalgorithmen ; Semantisches Umfeld in Indexierung u. Retrieval
Objekt: MEDLINE ; SMART
-
13Buckley, C. ; Singhal, A. ; Mitra, M. ; Salton, G.: New retrieval approaches using SMART : TREC 4.
In: The Fourth Text Retrieval Conference (TREC-4). Ed.: K. Harman. Gaithersburgh, MD : National Institute of Standards and Technology, 1996. S.25-48.
(NIST special publication; 500-236)
Themenfeld: Retrievalstudien
Objekt: SMART ; TREC
-
14Buckley, C. ; Allan, J. ; Salton, G.: Automatic routing and retrieval using Smart : TREC-2.
In: Information processing and management. 31(1995) no.3, S.315-326.
Abstract: The Smart information retrieval project emphazises completely automatic approaches to the understanding and retrieval of large quantities of text. The work in the TREC-2 environment continues, performing both routing and ad hoc experiments. The ad hoc work extends investigations into combining global similarities, giving an overall indication of how a document matches a query, with local similarities identifying a smaller part of the document that matches the query. The performance of ad hoc runs is good, but it is clear that full advantage of the available local information is not been taken advantage of. The routing experiments use conventional relevance feedback approaches to routing, but with a much greater degree of query expansion than was previously done. The length of a query vector is increased by a factor of 5 to 10 by adding terms found in previously seen relevant documents. This approach improves effectiveness by 30-40% over the original query
Themenfeld: Automatisches Indexieren ; Retrievalstudien ; Semantisches Umfeld in Indexierung u. Retrieval
Objekt: Smart ; TREC
-
15Kunze, M.: Fenster zum Host : Fünf Terminalprogramme für Windows im Vergleich.
In: c't. 1994, H.2, S.134-138.
Themenfeld: Datenfernübertragung
Objekt: Crosstalk 2.01 ; Dynacomm 3.1 ; Procomm + 1.01 ; Smartcom 1.0 ; Unicom 3.1
-
16Rubottom, J.D.: Using Lotus SmarText to build hypertext documents.
In: Computers in libraries. 13(1993) no.3, S.76-78.
Abstract: Reviews SmarText from Lotus Development Co. which creates and retrieves electronically stored reference materials and documents. The software builder automatically analyzes electronic versions of documents assembles its own outlines and indexes and establishes hypertext links between text and illustrations. Documents can be searched either by browsing through the text, using the outline to find a specific section, or selecting from the index. A Boolean search feature allows searching for combinations of terms. Examines the strengths and weaknesses of the program. Smartext is best suited to documents developed internally or in the public domain because of copyright law
Themenfeld: Hypertext
Objekt: Smartext
-
17Nielsen, B.: Smartcom for Windows : a review.
In: Online. 17(1993) no.6, S.43-44,46,48-51.
Abstract: Reviews the Smartcom for Windows graphic user interface software from the specific viewpoint of what it offers the online searcher
Objekt: Smartcom
-
18Fox, E.A. ; Koll, M.B.: Practical enhanced Boolean retrieval : experiences with the SMART and SIRE systems.
In: Information processing and management. 24(1988), S.257-267.
Objekt: SMART ; SIRE
-
19Salton, G.: Automatic processing of foreign language documents.
In: Theory of subject analysis: a sourcebook. Ed.: L.M. Chan, et al. Littleton, CO : Libraries Unlimited, 1985. S.340-355.
Abstract: The attempt to computerize a process, such as indexing, abstracting, classifying, or retrieving information, begins with an analysis of the process into its intellectual and nonintellectual components. That part of the process which is amenable to computerization is mechanical or algorithmic. What is not is intellectual or creative and requires human intervention. Gerard Salton has been an innovator, experimenter, and promoter in the area of mechanized information systems since the early 1960s. He has been particularly ingenious at analyzing the process of information retrieval into its algorithmic components. He received a doctorate in applied mathematics from Harvard University before moving to the computer science department at Cornell, where he developed a prototype automatic retrieval system called SMART. Working with this system he and his students contributed for over a decade to our theoretical understanding of the retrieval process. On a more practical level, they have contributed design criteria for operating retrieval systems. The following selection presents one of the early descriptions of the SMART system; it is valuable as it shows the direction automatic retrieval methods were to take beyond simple word-matching techniques. These include various word normalization techniques to improve recall, for instance, the separation of words into stems and affixes; the correlation and clustering, using statistical association measures, of related terms; and the identification, using a concept thesaurus, of synonymous, broader, narrower, and sibling terms. They include, as weIl, techniques, both linguistic and statistical, to deal with the thorny problem of how to automatically extract from texts index terms that consist of more than one word. They include weighting techniques and various documentrequest matching algorithms. Significant among the latter are those which produce a retrieval output of citations ranked in relevante order. During the 1970s, Salton and his students went an to further refine these various techniques, particularly the weighting and statistical association measures. Many of their early innovations seem commonplace today. Some of their later techniques are still ahead of their time and await technological developments for implementation. The particular focus of the selection that follows is an the evaluation of a particular component of the SMART system, a multilingual thesaurus. By mapping English language expressions and their German equivalents to a common concept number, the thesaurus permitted the automatic processing of German language documents against English language queries and vice versa. The results of the evaluation, as it turned out, were somewhat inconclusive. However, this SMART experiment suggested in a bold and optimistic way how one might proceed to answer such complex questions as What is meant by retrieval language compatability? How it is to be achieved, and how evaluated?
Anmerkung: Nachdruck des Originalartikels mit Kommentierung durch die Herausgeber ; Original in: Journal of the American Society for Information Science 21(1970) no.3, S.187-194.
Themenfeld: Automatisches Indexieren ; Computerlinguistik
Objekt: SMART
-
20Salton, G.: ¬The Smart environment for retrieval systeme valuation : advantages and problem areas.
In: Information retrieval experiments. Ed.: K. Sparck Jones. London : Butterworths, 1981. S.316-329.
Themenfeld: Retrievalstudien
Objekt: Smart