Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 28. April 2022)
Suche
Suchergebnisse
Treffer 21–40 von 118
sortiert nach:
-
21Stock, M. ; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (III) : Informationslinguistik und -statistik: AltaVista, FAST und Northern Light.
In: Password. 2001, H.1, S.16-24.
Abstract: Suchmaschinen im World Wide Web arbeiten automatisch: Sie spüren Dokumente auf, indexieren sie, halten die Datenbank (mehr oder minder) aktuell und bieten den Kunden Retrievaloberflächen an. In unserem Known-Item-Retrievaltest (Password 11/2000) schnitten - in dieser Reihenfolge - Google, Alta Vista, Northern Light und FAST (All the Web) am besten ab. Die letzten drei Systeme arbeiten mit einer Kombination aus informationslinguistischen und informationsstatistischen Algorithmen, weshalb wir sie hier gemeinsam besprechen wollen. Im Zentrum unserer informationswissenschaftlichen Analysen stehen die "Highlights" der jeweiligen Suchwerkzeuge
Themenfeld: Suchmaschinen
Objekt: AltaVista ; NorthernLight ; FAST
-
22Lohberg, P.: Suchet, so werdet ihr finden ... : Mit der richtigen Suchmaschine leichter an Information aus dem Netz kommen.
In: Frankfurter Allgemeine Zeitung. Nr.67 vom 20.3.2001, S.B25.
(CeBIT 2001)
Abstract: Da hat man nun das gesamte Wissen der Menschheit im Griff, wohlverteilt auf Milliarden von Internetseiten. Und dann findet man nicht einmal die rudimentärsten Informationen zum gesuchten Thema. Suchmaschinen sind die Geister, die man rief und nun nicht mehr loswerden will - auch wenn sie häufig für viel Frustration sorgen: Auf eine einfache Frage bekommt man eine Unmenge von Antworten, die häufig gar nichts mit der Frage zu tun haben. Um mit den modernen Heinzelmännchen des Internets vernünftig umgehen zu können, sind Kenntnisse über die Arbeitsweise dieser Dienste hilfreich. Drei Arten von Anlaufstellen für Suchende gibt es im Netz: Kataloge, Suchmaschinen und Meta-Suchmaschinen. Bei den Katalogen (yahoo.de, web.de) hangelt man sich durch die Sites wie durch die Seiten eines Buches. Man klickt sich durch Rubriken und zahllose Unterrubriken, bis man dort angelangt ist, wo die gesuchte Information stehen könnte. Leider muß hier der Konjunktiv benutzt werden, denn die Struktur der Suchkataloge bedingt, daß die Internetseiten dort angemeldet werden müssen, wo sie am sinnvollsten plaziert sind: in der Unterrubrik der Unterrubrik der ... Das kann nur von Hand geschehen, und selbst der Betreiber der Seite muß sich bis dorthin durchklicken, wo er seine Information plaziert haben will. Von Vorteil ist daß dann am Ende Menschen die Einträge überprüfen, häufig hochbezahlte Akademiker, die aber kaum der riesigen Menge an neuen Seiten Herr werden. Dennoch, in Katalogen gefundene Informationen sind meist relativ hochwertig. Klassische und Meta-Suchmaschinen Die eigentlichen Suchmaschinen (altavista.de, google.de) schicken kleine Spider-Programme in das Netz oder auf Anfrage zu bestimmten Seiten. Diese Programme durchsuchen selbständig die Seiten nach den gewünschten Begriffen. Die eine indiziert den gesamten Text, die andere legt das Hauptgewicht auf die Meta-Tags im Kopf der HTML-Datei - Auszeichnungen, die den Inhalt der Seite beschreiben (sollen), andere legen großen Wert auf den Titel oder den Datei- oder DomainNamen. jeder Seitenbetreiber legt großen Wert darauf, bei einer Suchabfrage weit vorne gelistet zu werden. Das Ranking ist wichtig, denn kaum ein Suchender sieht auf Seite zehn der Suchergebnisse nach. Meta-Suchmaschinen (metager.de, metaspinner.de) fragen Datenbestände mehrerer Suchmaschinen gleichzeitig ab. So kann man sich die Suche bei unterschiedlichen Suchmaschinen sparen. Wie aber frage ich eine Suchmaschine? Fast jeder Intemetnutzer kennt eine oder mehrere Suchmaschinen. Nur wenige aber haben je auf den Link zur Hilfeseite oder Profisuche - meist ganz oben in direkter Nähe des Suchfensters - geklickt. Dort findet sich Wichtiges: die Sprache, die das Suchprogramm versteht. Hier kann man sich informieren, wie man die Suche rein technisch eingrenzen und dadurch beschleunigen kann. Viele Suchmaschinen kennen Boolsche Operatoren, mit denen man Worte ausschließen "-" oder Worte kombinieren kann "+". Auch Gänsefüßchen (sprich: Anführungszeichen) kommen häufig zum Einsatz. Damit kann man Wortkombinationen oder Satzfragmente zusammenpacken. So werden diese Kombinationen in bestimmter Reihenfolge gesucht - und theoretisch auch gefunden. Die Spiderprogramme der Suchmaschinen können, so schnell sie auch sein mögen, nur einen Bruchteil der Seiten, die täglich neu ins Netz gestellt werden, besuchen. Wie suche ich nun am besten? Angenommen, Sie suchen eine Unterkunft für Behinderte mit Rollstuhl im Schwarzwald. Es liegt auf der Hand, daß die Suche nach einem dieser Worte zu viele unnötige Seiten finden würde. Also nehmen Sie Unterkunft + Behinderte + Rollstuhl + Schwarzwald. Das ergibt dann ein knappes Dutzend Ergebnisse, von denen eines möglicherweise zutrifft. Wenn nicht finden Sie sicher einen weiterführenden Link, eine Adresse oder Telefonnummer. Der Autor dieser Zeilen hat sich - entgegen der verbreiteten Lehrmeinung - auf einen anderen Weg begeben. Als Freund der Suchmaschinen Google und MetaGer gibt er den vollständigen Satz ein: Unterkunft für Behinderte mit Rollstuhl im Schwarzwald. Und siehe da, es funktioniert! Ein paar wenige Ergebnisse werden angezeigt. Aber fast alle passen haargenau!
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Fireball ; MetaGer ; Google ; Metaspinner ; Web.de ; Yahoo
-
23Hock, R.: ¬The extreme searcher's guide to Web search engines : a handbook for the serious searcher.2nd ed.
Medford, NJ : CyberAge Books, 2001. 212 S.
ISBN 0-910965-47-1
Abstract: Enthält neben allgemeinen Kapiteln (Serach engines in general - Common search options) eine Besprechung der einzelnen Suchmaschinen und ihrer Charakteristika
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Google ; NorthernLight ; Ixquick ; Excite ; HotBot ; Yahoo ; MetaCrawler ; FastSearch ; Lycos ; Dogpile
Hilfsmittel: ProFusion
LCSH: Web search engines
DDC: 025.04 / dc21
LCC: ZA4226 H63 2001
-
24Erst mal sehn, was Google hat.
In: Test. 2001, H.9, S.26-29.
Abstract: Im Internet schlummern unzählige Schätze. Sie müssen nur gehoben werden. Suchhilfen bieten sich dafür an - aber nur eine von 21 getesteten findet richtig gut
Anmerkung: Die 2 Abbildungen zeigen die Ergebnistabellen
Themenfeld: Suchmaschinen
Objekt: Google ; AltaVista ; Lycos ; MetaGer ; Fireball ; Metaspinner ; MetaCrawler ; Yahoo ; HotBot ; Allesklar ; Excite ; Infoseek ; Suchen.com ; Nettz ; Web.de ; Abacho ; MSN ; Dino ; Netfind.AOL ; Acoon
-
25Puscher, F.: Suchmaschinen im Härtetest.
In: Com!online. 2001, H.12, S.30-31.
Abstract: Zehn Suchmaschinen buhlen um die Gunst der Surfer. Doch wie gut sind sie wirklich? com!online hat die Suchdienste getestet
Anmerkung: Tabelle mit Fragen und Suchergebnissen in 2 Abbildungen
Themenfeld: Suchmaschinen
Objekt: Google ; HotBot ; Lycos ; Excite ; Eule ; Abacho ; AOL Netfind ; Fireball ; Altavista ; Wisenut
Hilfsmittel: Teoma
-
26Blittkowsky, R.: ¬Das World Wide Web gleicht einer Fliege : Studien versuchen zu erklären, warum Suchmaschinen nicht immer fündig werden.
In: Frankfurter Rundschau. Nr.25 vom 30.1.2001, S.26.
Abstract: Einer möchte wissen, auf welchen Webseiten sein Name vorkommt. Die andere sucht nach den neusten Sportergebnissen. Ein Dritter recherchiert den Wissensstand über Schrödingers Katze. Internetnutzer befragen jede Minute zu Hunderttausenden Suchmaschinen und Webkataloge. Die wurden, seit das Internet zum Masseninedium herangereift ist, zu Info- (Mono-) Polen für den Zugang zur heterogenen Welt des Web. Dahinter steckt viel Arbeit. Die Suchmaschinen schicken unentwegt Roboter und Agenten los, die Seiten lesen - und Inhalte oder Verweise an mächtige Datenbankservermelden. Täglich entstehen mehrere hunderttausend Webseiten; die Zahl der Adressen, die verarbeitet werden müsste, ist mittlerweile auf mehr als eine Milliarde gewachsen. Nicht nur deshalb wird die automatische Recherche zunehmend schwierig. Eine Untersuchung der Firmen Altavista, Compac und IBM, die die Verbindungen auf 500 Millionen Seiten auswertete, ergab: Im WWW wächst ein Bereich heran, den konventionelle Suchtechnologien nicht erfassen können. Das widerspricht früheren Studien, nach denen zwei beliebige Webadressen höchstens 19 Hyperlinks voneinander entfernt liegen - sich prinzipiell also alles finden lässt. Die Forscher um Altavista-Chefwissenschaftler Andrei Broder vergleichen den Aufbau des World Wide Weh mit der Form einer Fliege. Das Netz gliedert sich demnach in vier Bereiche. Etwa ein Drittel der Seiten fügen den zentralen Kein, um den sich die anderen Gebiete lagern. Den Knoten beschreiben die Fachleute als Giant Strongly Connected Components (SCC): Die Seiten sind untereinander eng verknüpft; es bestehen gute Linkverbindungen zwischen den Angeboten; sie sind leicht zu finden. Ein Viertel der Adressen macht eine Schicht aus, die sich als eine Schleife der Fliege sehen lässt. Es handelt sich vorwiegend um Anfangsseiten, Einstiegspunkte zu Webseiten und inhaltlich sortierende Kataloge. ; Von dort aus sind die zentralen Seiten im Knoten gut erreichbar. Eine zweite Schleife, ein weiteres Viertel aller Webseiten, bilden die Endpunkte - Angebote ohne Links. Sie sind nur über den Knoten erreichbar. Verbleibt etwa ein Fünftel aller Seiten, die gar nicht oder nur indirekt mit dem Knoten verknüpft sind. Letztere werden als Tendrils bezeichnet. Diese Webangebote basieren beispielsweise auf Datenbanken von Unternehmen, Verbänden oder Organisationen. Sie entstehen erst in den wenn sie abgerufen werden - oft in kryptischen Dateiformaten und mit Animationen, Bildern oder Audiodateien angereichert. Surfer können diese Informationen mit Recherchen in den Webseiten der Schleifen aufspüren. Die Agenten der Suchmaschinen dagegen sind darauf trainiert, ständig verfügbare Dokumente im html-Format zu finden. Ihnen entgeht dieser Teil des World Wide Web. Das US-Softwareunternehmen Bright Planet schätzt, das WWW umfasst 2000-mal so viele Seiten, wie alle Suchsysteme zusammen glauben. Auch wenn sie systembedingt nicht alle Seiten kennen: Insgesamt liefern die automatischen Maschinen mehr Ergebnisse als Kataloge wie Yahoo, Dino-Online oder Looksmart. Deren Macher beschäftigen Redaktionsstäbe, die Inhalte recherchieren, sichten und in die Verzeichnisse einordnen. Webkataloge bauen also auf die humane Intelligenz ihrer Rechercheure, die Themen und Seiten verknüpfen sowie Inhalte kommentieren und einordnen. Yahoo, Lieblingskind der New Economy, bringt es indes gerade einmal auf 15 Millionen katalogisierter Webseiten. Gleichwohl kauft Yahoo bei einigen Themen mancher Suchmaschine den Schneid ab: Eine vorstrukturierte, handverlesene Einarbeitung von Inhalten in die Rubriken eines Katalogs kann genauer Auskunft geben. ; Die Spitzenreiter unter den Suchmaschinen sehen sich im Zugzwang, ihren Service zu verbessern. Schließlich sollen die Kunden immer wieder Anfragen starten und damit indirekt die üppigen Werbepreise rechtfertigen. Alltheweb, Google und Altavista erkunden das Netz unterschiedlich. Alltheweb, betrieben vom norwegisch-amerikanischen Unternehmens Fast, setzt bei der Verwaltung der Index-Datenbank auf superschnelle Rechenleistungen und Servertechnologie, damit die richtigen Hyperlinks oben stehen. Etwa 500 Millionen indizierter Webseiten bedeuten für Alltheweb die Pole-Position. Die rein maschinelle Verarbeitung scheint ein gutes Konzept zu sein: Allthewebs Resultatslisten warten mit den besten mehrsprachigen Kommentaren auf. Die Suchmaschine Google, die ihren Namen der Zahl Googol verdankt und eine eins mit hundert Nullen bezeichnet, speichert alle Webseiten lokal auf einer Computerfarm mit 6000 Zentraleinheiten. Sie verwendet ein mathematisches Verfahren, um Webseiten nach inhaltlichen Kriterien zu ordnen. Larry Page und Sergej Brin, die Entwickler des kalifornischen Projekts an der Stanford University, setzen bei der internen Bewertung von Webseiten, dem Page-Ranking, auf die Einschätzungen der Internet-Surfer: Wenn sie einem Verweis auf eine andere Adresse folgen, treffen sie eine intuitive Entscheidung. Sie rufen ein Angebot auf, von dem sie bessere Informationen, eine konkrete Antwort auf ihre Frage erwarten. Page und Brin überlegten, die Summe der Surfentscheidungen kann ihren Inhalt indirekt qualifizieren: Je häufiger eine Webseite ausgewählt wird, desto höher kann ihre Qualität sein - in Bezug auf die inhaltliche Relevanz hinsichtlich eines Themas. Mit einem komplizierten Bewertungsverfahren filtern die Datenbankserver von Google permanent und ohne menschliches Zutun die Entscheidungen unzähliger Surfer Die Ergebnisse von Google gehören nachweisbar zu den besten, die Maschinen weltweit bieten. Altavista ist schon lange im Geschäft. Auch die Manager dieses Unternehmens setzen auf einen hohen technologischen Aufwand. Sie schicken Suchroboter, genannt Scooter, los, die Tag für Tag ungefähr 24 Millionen Dokumente überprüfen und gegebenenfalls der Datenbank hinzufügen. Das entspricht einer Kapazität von 800 DIN-A4-Seiten pro Sekunde. Die Datenbank erfasst alle Worte eines Dokuments. Der Vorteil der Volltext-Indizierung ist offenkundig: Jedes Dokument kann theoretisch auf Grund eines darin enthaltenen Worts sekundenschnell gefunden werden. Altavista kennt 50 Millionen deutschsprachiger Webseiten. Als Spezialität findet sie auch Produktinformationen und Markenbezeichnungen - und sicher auch das Neueste zu Schrödingers Katze
Inhalt: Mit einer Abbildung zur Visualisierung des Invisible Web
Anmerkung: Vgl. die Studien: http://www.almaden.ibm.com/cs/k53/www9.final (AltaVista); http://dbpubs.stanford.edu:8090/pub/1998-8 (Google)
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Google ; Fast ; AlltheWeb
-
27Mettrop, W. ; Nieuwenhuysen, P.: Internet search engines : fluctuations in document accessibility.
In: Journal of documentation. 57(2001) no.5, S.623-651.
Abstract: An empirical investigation of the consistency of retrieval through Internet search engines is reported. Thirteen engines are evaluated: AltaVista, EuroFerret, Excite, HotBot, InfoSeek, Lycos, MSN, NorthernLight, Snap, WebCrawler and three national Dutch engines: Ilse, Search.nl and Vindex. The focus is on a characteristics related to size: the degree of consistency to which an engine retrieves documents. Does an engine always present the same relevant documents that are, or were, available in its databases? We observed and identified three types of fluctuations in the result sets of several kinds of searches, many of them significant. These should be taken into account by users who apply an Internet search engine, for instance to retrieve as many relevant documents as possible, or to retrieve a document that was already found in a previous search, or to perform scientometric/bibliometric measurements. The fluctuations should also be considered as a complication of other research on the behaviour and performance of Internet search engines. In conclusion: in view of the increasing importance of the Internet as a publication/communication medium, the fluctuations in the result sets of Internet search engines can no longer be neglected.
Anmerkung: Vgl. auch: http://www.emeraldinsight.com/10.1108/EUM0000000007096.
Themenfeld: Suchmaschinen ; Retrievalstudien
Objekt: AltaVista ; EuroFerret ; Excite ; HotBot ; InfoSeek ; Lycos ; MSN ; NorthernLight ; Snap ; WebCrawler ; Ilse ; Search.nl ; Vindex
-
28Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr.
In: Süddeutsche Zeitung. Nr.xxx vom 13.12.2001, S.19.
Inhalt: "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista - ; Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst: ; Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ. ; - Nullen ohne Ende - ; Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
Themenfeld: Internet ; Suchmaschinen
Objekt: Google ; AltaVista
-
29Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte.
In: Frankfurter Allgemeine Zeitung. Nr.134 vom 12.6.2001, S.T1.
Abstract: Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau. ; Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen. ; Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare. ; Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend. ; Die Beiträge, eine Art E-Mails mit gestrengen Usancen, finden sich dann auf vielen kooperierenden Servern, auf uralten nichtkommerziellen Fido- oder Zerberus-Boxen und bei großen Internet-Anbietern à la T-Online, die die Eintrage wie kommunizierende Röhren untereinander austauschen. Die mit Newsreader-Zusatzsoftware zu lesenden, zuweilen ruppigen Beiträge dieser Zehntausenden von Newsgroups im "Usenet" sind ein wahres Dorado für Tips und Meinungen, für praktische Hilfe und unermüdliche Kollegialität - oft zum Ärger der Produkthersteller, gelegentlich zur Entlastung von deren Kundendiensten. Frage-und-Antwort-Fäden (Threads) verästeln sich zu einem Baum der Meinungen und des Wissens. Einen Überblick gibt etwa Tile.net oder groups.google.com, versuchsweise mag man als Sprachfreund bei http://faql.de einsteigen. Über www.deja.com konnte man überall browsergeführt mitdiskutieren und seinen Senf dazugeben. Ende 2000 ging es damit bergab, am 12. Februar stellte Deja seinen Dienst ein. Domänenname und Datenbank (mehr als ein Terabyte mit über 500 Millionen Beiträgen seit 1995) wurden von Altavista an Google verkauft und sind unter der alten Adresse lebendig. Nur neue Beiträge kann man dort nicht mehr loswerden und muß sich dazu schon direkt zum jeweiligen Forum bemühen. Manche Suchmaschinen bieten maschinelle Übersetzungen. Die Ergebnisse helfen Amerikanern, uns zu verstehen, mit Phantasie und gutem Willen, Auf seiner sehenswerten englischen Suchseite bietet dies Google an, so wie seit längerem Altavista - vom selben Übersetzer. Gefundenen Text bekommt man ins Englische übersetzt; klickt man weiter, so auch die weiteren Seiten. Man sollte sich nicht darüber lustig machen, selbst wenn eines Dichters Werk als "its factory" erscheint und die Stadt Essen als "meal". Die Wunscheinstellungen (speicherbar, wenn man Cookies zuläßt) bei Google lassen übrigens zu, daß die gefundenen Seiten, ob original, ob übersetzt, in einem neuen Browserfenster aufscheinen.'Alle anderen machen das auch wenn man die Shift-Taste beim Klicken drückt. Hoffen wir, daß uns diese offene Wunderwelt des Internet mit ihren Suchmaschinen noch lange erhalten bleibt und daß kommende Multimedia-Inhalte nicht in einem Wust von Formaten untergehen. Das Netz muß Schranken überwinden können, für Maschinen, letztlich aber von Mensch zu Mensch
Themenfeld: Suchmaschinen
Objekt: Google ; AltaVista ; Inktomi ; Yahoo ; MetaCrawler ; AlltheWeb ; Webtop ; MSN ; Looksmart ; Xipolis ; Brockhaus ; Wissen.de ; Britannica
-
30Mal sehen, was Google hat : Suchmaschinen.
In: Frankfurter Rundschau. Nr.230 vom 4.10.2001, S.10.
Abstract: Zumindest eine Suche hat ein Ende: die nach der besten Suchmaschine. Die Stiftung Warentest hat sie gefunden. Sie heißt www.google.de und hat in, der Untersuchung alle anderen Suchhilfen ziemlich alt aussehen lassen. Denn Google ist kinderleicht zu bedienen, übersichtlich und vor allem treffsicher. Google empfiehlt sich für fast alle Anfragen als erste Anlaufstelle. Darüber hinaus sollte man aber auch andere Suchhilfen konsultieren. Altavista, Lycos und Metager bieten sich als nächste an. Eine erweiterte Recherche kann die Zahl der interessanten Treffer durchaus erhöhen. Mitunter ist es auch ratsam; in enem Katalog zu stöbern.: Vor allem dann, wenn der Suchende kein genaues Ziel hat und: sich nur einen Überblick darüber verschaffen will, was es im Netz so alles gibt. Webkataloge sind im Unterschied zu den Volltextsuch-maschinen von Menschen erstellte Verzeichnisse. Das erhöht die Qualität und stellt sicher, dass zu einem Stichwort ausschließlich relevante Seiten aufgeführt werden. Das Informationsangebot der Kataloge ist jedoch vergleichsweise niedrig. Deshalb leiten sie Anfragen, die sie nicht aus ihrem Fundus beantworten können, meist an eine Suchmaschine weiter. Diejenigen, die glauben, mit Meta-Suchmaschinen mehrere Fliegen mit einer Klappe zu schlagen, werden enttäuscht. Zwar grasen Metager und Co. immer gleichzeitig mehrere Suchmaschinen und Kataloge ab, zu perfekten Ergebnissen führt das aber kaum. Am besten schafft es noch Metager von der Uni Hannover, die den vierten Platz im Test errungen konnte. Um herauszubekommen, welche Suchmaschinen die besten Schätze aus dem unüberschaubaren Datenmeer des weltweiten Netzes heben, haben die Tester 21 elektronische Spürnasen, darunter fünf Metasuchmaschinen und sechs Kataloge, ausführlich ins Verhör genommen. An jede wurden zehn identische Anfragen gerichtet. Die Ergebnisse zeigen, dass die Internetsuche häufig noch einem Stochern um Nebel gleicht. Obwohl für jede Suchmaschine und jede Aufgabe immer von mehreren Anfragemöglichkeiten die mit den besten Ergebnissen gewertet wurde, hatte insgesamt über die Hälfte der angezeigten Treffer rein gar nichts mit dem gesuchten Thema zu tun. Nur eine Suchmaschine, nämlich Google, schaffte es, für alle zehn Fragen wenigstens eine völlig zutreffende Antwort zu finden. Altavista und Metager brachten es immerhin auf neun beantwortete Fragen und Lycos auf acht. MSN Search hatte dagegen nur für eine Frage die richtigen Links parat, und Acoon hinterließ völlige Ratlosigkeit: kein wirklich guter Treffer.
Inhalt: Die Abbildung zeigt die Ergebnis-Tabelle
Anmerkung: Vgl.: test 2001, H.9, S.26-29 ("Erst mal sehn, was Google hat")
Themenfeld: Suchmaschinen
Objekt: Google ; AltaVista ; Lycos ; MetaGer ; Fireball ; Metaspinner ; MetaCrawler ; Yahoo ; HotBot ; Allesklar ; Excite ; Infoseek ; Suchen.com ; Nettz ; Web.de ; Abacho ; MSN ; Dino ; Netfind.AOL ; Acoon
-
31Reibold, H.: Findigkeit gefragt.
In: PC professionell. 2000, H.2, S.170-185.
Abstract: Suchmaschinen sind das mit Abstand wichtigste Holfsmittel für die Informationssuche im Internet. Der PCpro-Test zeigt, dass es keineswegs egal ist, welche Suchmaschine man benutzt - vor allem dann nicht, wenn man es eilig hat. Die Unterschiede sind gravierend
Inhalt: Vorgestellt und verglichen werden deutsche und internationale Suchmaschinen (bzw. ihre deutschen Varianten) und Verzeichnisdienste. Sieger in beiden Kategorien ist hier AltaVista
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Infoseek ; Fireball ; Lycos ; Excite ; Web.de ; MSN-Suche ; Yahoo ; Crawler ; Dino ; HotBot ; Google ; AlltheWeb ; WebCrawler
-
32Hosbach, W.: Wühltische im Web : Suchmaschinen im Vergleich.
In: PC Magazin. 2000, H.5, S.148-155.
Abstract: Welche Suchmaschine findet wirklich, was Sie suchen? Die meisten liefern Ihnen Tausende von unpassenden treffern und zwingen Sie zu unnützen Seitengewühle. ein guter Suchroboter dagegen erspart Ihnen Zeit und Ärger
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Excite ; FastSearch ; Fireball ; HotBot ; InfoSeek ; Lycos ; Metacrawler
-
33Hock, R.: Web search engines : more features and commands.
In: Online. 24(2000) no.3, S.17-26.
Inhalt: 3 Tabellen
Anmerkung: Mit tabellarischer Übersicht der Eigenschaften der verschiedenen Suchdienste
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Excite ; FastSearch ; GoNetwork ; Google ; HotBot ; Lycos ; NorthernLight ; Yahoo
-
34Nicholson, S.: Raising reliability of Web search tool research through replication and chaos theory.
In: Journal of the American Society for Information Science. 51(2000) no.8, S.724-729.
Abstract: Because the WWW is a dynamic collection of information, the Web search tools (or 'search engines') that index the Web are dynamic. Traditional information retrieval evaluation techniques may not provide reliable results when applied to the Web search tools. This study is the result of 10 replications of the 1996 classic Ding and Marchionini Web search tool research. It explores the effects that replication can have on transforming unreliable results from one iteration into replicable and therefore reliable results following multile iterations
Anmerkung: Vgl.: Ding, W. u. G. Marchionini: A comparative study of Web search service performance
Themenfeld: Suchmaschinen
Objekt: Infoseek ; Lycos ; AltaVista ; Excite
-
35Such!.
In: Test. 2000, H.8, S.20-23.
Abstract: Im Internet gibt es alles - naja, fast. Die Frage ist nur: wo? Suchmaschinen und Kataloge helfen beim Stöbern. Wir sagen Ihnen, welche am besten helfen
Anmerkung: Vgl. auch unter: www.warentest.de/wtest/plsql/...
Themenfeld: Suchmaschinen
Objekt: Acoon ; Aladin ; AltaVista ; Excite ; Fireball ; Google ; HotBot ; Infoseek ; Lycos ; MSN ; Metacrawler ; MetaGer ; Metaspinner ; Nettz ; AllesKlar ; Dino-Online ; Web.de ; Yahoo
-
36Winterer, A. ; Suck, M.: Suchmaschinen: Jetzt treffsicherer? : 12 Suchmaschinen und Kataloge im Test.
In: Chip. 2000, H.10, S.136-147.
Abstract: Im Internet gibt es angeblich alles - die Frage ist nur, wo? Suchmaschinen und Kataloge helfen dem Surfer, die gewünschten Informationen zu finden, damit Sie in der Datenflut nicht untergehen, testet CHIP die besten WWW-Spürhunde
Inhalt: Sieger dieses Tests sind Yahoo und Google
Themenfeld: Suchmaschinen
Objekt: Yahoo ; Web.de ; Dino ; AltaVista ; Fireball ; InfoSeek ; Lycos ; Excite ; Google ; Allesklar ; Bellnet ; Acoon
-
37Broder, A. ; Kumar, R. ; Maghoul, F. ; Raghavan, P. ; Rajagopalan, S. ; Stata, R. ; Tomkins, A. ; Wiener, J.: Graph structure in the Web.
In: http://www.almaden.ibm.com/cs/k53/www9.final.
Abstract: The study of the web as a graph is not only fascinating in its own right, but also yields valuable insight into web algorithms for crawling, searching and community discovery, and the sociological phenomena which characterize its evolution. We report on experiments on local and global properties of the web graph using two Altavista crawls each with over 200M pages and 1.5 billion links. Our study indicates that the macroscopic structure of the web is considerably more intricate than suggested by earlier experiments on a smaller scale
Themenfeld: Suchmaschinen
Objekt: AltaVista
-
38Stock, M. ; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich : Teil 1: Retrievaltests mit Known Item searches.
In: Password. 2000, H.11, S.23-31.
Abstract: Web Search Engines und Web Directories sind die technologische Speerspitze im High-Tech-Bereich Internet. Als Suchassistenten gestatten sie Laien und Profi-Searchern gleichsam einen optimalen Einstieg in die Vielfalt der Informationsquellen des World Wide Web, Sie ermöglichen durch eine Kombination aus hierarchisch geordnetem kontrollierten Vokabular, automatischer Indexierung sowie diverser Synonym-, Homonym- und Fachwörterbücher einen zielgenauen Zugriff auf WebSites. - Stop! Glauben Sie das? Wir waren skeptisch und haben Suchmaschinen und Suchverzeichnisse genau angeschaut. Durchgeführt wurde ein Retrievaltest, der unterschiedliche Suchsysteme mit jeweils dergleichen Anfrage konfrontierte, auf die wir bereits die Antwort wussten ("Known Item Search"). Skizziert werden zudem bisher ausgearbeitete empirische Erhebungen zur Evaluation von Web-Retrievalsystemen, angefangen von seriösen informationswissenschaftlichen Forschungen bis hinzu den Tests in Publikumszeitschriften
Themenfeld: Suchmaschinen
Objekt: AltaVista ; NorthernLight ; FAST ; Acoon ; Excite ; Fireball ; HotBot ; Infoseek ; Lycos ; Oingo ; Simpli ; Speedfind ; Spider ; Web-Crawler ; Yahoo
-
39¬Der große, exklusive TOMORROW-Text : Die beste Suchmaschine der Welt ... und der beste Web-Katalog ... und der beste Metasucher.
In: Tomorrow. 2000, H.5, S.38-81.
Abstract: Tausende von Suchhilfen stehen im Internet zur Verfügung. Doch welche bringen Surfern die besten Resultate? - Mehrere Abbildungen
Inhalt: Darunter Einzel-Beiträge zu: Acoon, Yahoo, MetaGer; Interviews mit den Suchmaschinen-Bossen zu: Wer ist der Lieblingskonkurrent?; So arbeitet eine Suchmaschine; KARZAUNINKAT, S.: So einfach finden sie, was Sie gerade wollen; 20 Fragen: Welcher Suchmaschinen-Typ sind Sie?; KARZAUNINKAT, S.: Kontrolle ist der beste Schutz; BETZ, S.: Darum suchen Sie kostenlos; GLASER, S.: Zwischen Quatsch und Quantenphysik; Suchmaschinen für Spezialfragen
Anmerkung: Die Tester waren: Fa. Keynote Systems und Stefan Karzauninkat
Themenfeld: Suchmaschinen
Objekt: Acoon ; Fast ; Fireball ; Lycos ; Google ; AltaVista ; Speedfind ; NorthernLight ; HotBot ; Excite ; Spider.de ; Yahoo ; Web.de ; AllesKlar ; Looksmart ; Dino ; MetaGer ; MetaSpinner ; SavvySearch ; ProFusion
-
40Schneller finden!.
In: Online today. 1999, H.2, S.18-25.
Abstract: Erstmals im Langzeittest: die deutschen Webkataloge und Suchmaschinen! Drei Monate lang haben wir geprüft, wie hilfreich die Arbeit dieser Web-Pfadfinder wirklich ist. Und wie man noch schneller und besser ans Ziel gelangt
Inhalt: Bearbeitet wurden folgende 3 Fragen: (1) Proxemik; (2) Oliver Kahn; (3) Apartment UND (Rügen ODER Usedom) NICHT Binz
Themenfeld: Suchmaschinen
Objekt: DINO ; ALLESKLAR ; YAHOO ; SHARELOOK ; WEB.DE ; FIREBALL ; EXCITE ; INTERSEARCH ; EULE ; LYCOS ; CRAWLER ; KOLIBRI ; ALADIN ; SPIDER ; AltaVista ; HotBot