Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 03. März 2020)
Suche
Suchergebnisse
Treffer 1–20 von 29
sortiert nach:
-
1Lewandowski, D.: ¬The retrieval effectiveness of web search engines : considering results descriptions.
In: Journal of documentation. 64(2008) no.6, S.915-937.
Abstract: Purpose - The purpose of this paper is to compare five major web search engines (Google, Yahoo, MSN, Ask.com, and Seekport) for their retrieval effectiveness, taking into account not only the results, but also the results descriptions. Design/methodology/approach - The study uses real-life queries. Results are made anonymous and are randomized. Results are judged by the persons posing the original queries. Findings - The two major search engines, Google and Yahoo, perform best, and there are no significant differences between them. Google delivers significantly more relevant result descriptions than any other search engine. This could be one reason for users perceiving this engine as superior. Research limitations/implications - The study is based on a user model where the user takes into account a certain amount of results rather systematically. This may not be the case in real life. Practical implications - The paper implies that search engines should focus on relevant descriptions. Searchers are advised to use other search engines in addition to Google. Originality/value - This is the first major study comparing results and descriptions systematically and proposes new retrieval measures to take into account results descriptions.
Themenfeld: Suchmaschinen
Objekt: Google ; Yahoo ; MSN ; Ask.com ; Seekport
-
2Bar-Ilan, J. ; Keenoy, K. ; Yaari, E. ; Levene, M.: User rankings of search engine results.
In: Journal of the American Society for Information Science and Technology. 58(2007) no.9, S.1254-1266.
Abstract: In this study, we investigate the similarities and differences between rankings of search results by users and search engines. Sixty-seven students took part in a 3-week-long experiment, during which they were asked to identify and rank the top 10 documents from the set of URLs that were retrieved by three major search engines (Google, MSN Search, and Yahoo!) for 12 selected queries. The URLs and accompanying snippets were displayed in random order, without disclosing which search engine(s) retrieved any specific URL for the query. We computed the similarity of the rankings of the users and search engines using four nonparametric correlation measures in [0,1] that complement each other. The findings show that the similarities between the users' choices and the rankings of the search engines are low. We examined the effects of the presentation order of the results, and of the thinking styles of the participants. Presentation order influences the rankings, but overall the results indicate that there is no "average user," and even if the users have the same basic knowledge of a topic, they evaluate information in their own context, which is influenced by cognitive, affective, and physical factors. This is the first large-scale experiment in which users were asked to rank the results of identical queries. The analysis of the experimental results demonstrates the potential for personalized search.
Themenfeld: Suchmaschinen ; Benutzerstudien
Objekt: Google ; MSN Search ; Yahoo
-
3Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen.
In: PC Magazin. 2006, H.1, S.34-39.
(Special: Alles Finden)
Abstract: Chaos zulassen! Das ist das Prinzip einer DesktopSuchmaschine. Denn sie findet alles auf dem Rechner wieder.
Inhalt: "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben. ; Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: Kü statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fett findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab. ; Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
Themenfeld: Suchmaschinen
Objekt: Google Desktop ; Copernic Desktop Search ; X1 Desktop Search ; MSN Search Toolbar ; Superior Search ; Blinkx 3.5.51
-
4Mostafa, J.: Bessere Suchmaschinen für das Web.
In: Spektrum der Wissenschaft. 2006, H.2, S.82-88.
(Internet)
Abstract: Die Onlinesuche im Internet bringt zwar viele, oft aber nur wenige nützliche Resultate. Nun sollen Websurfer dank verbesserter Software maßgeschneiderte Suchergebnisse erhalten - nicht nur bei Texten, sondern auch bei Bildern und Musikstücken
Inhalt: "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus. ; An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt. ; Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush. ; Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
Themenfeld: Suchmaschinen
Objekt: Google ; Mooter ; Kangoo ; MSN Search ; NorthernLight ; AskJeeves ; Clusty
-
5dpa: Microsoft will aufholen : Viel Geld für Angriff auf Google.
In: Frankfurter Rundschau. Nr.105 vom 6.5.2006, S.13.
(Wirtschaft)
Inhalt: "Microsoft greift für den Angriff auf Suchmaschinen-Marktführer Google noch tiefer in die Tasche. Die Ausgaben für das Online-Anzeigengeschäft, das MSN-Portal und neue Suchtechnologien werden im Geschäftsjahr, das im Juli startet, um 60 Prozent auf 1,6 Milliarden Dollar aufgestockt, wie Konzernchef Steve Ballmer ankündigt. Allein 1,1 Milliarden Dollar davon gingen in Forschung und Entwicklung. Microsoft sei im Markt für Online-Suche sehr ernsthaft engagiert, sagt Ballmer. "Nur zwei bis drei Unternehmen können wirklich die Infrastruktur liefern, die mit den Anforderungen der Konsumenten und Anzeigenkunden Schritt halten kann." Derzeit dominiert der weltgrößte Suchmaschinenbetreiber Google diesen Markt mit Abstand. Allein in den USA laufen nach Angaben von Nielsen Net-Rating 49 Prozent aller Suchanfragen über Google. Microsofts MSN Search rangiert derzeit mit knapp elf Prozent an dritter Stelle, noch hinter Yahoo mit gut 22 Prozent der Suchanfragen. Zudem will Microsoft ein bisher noch weitgehend unerschlossenes Geschäftsgebiet besetzen: Werbung in Videospielen. Dazu übernimmt der weltgrößte Softwarekonzern die darauf spezialisierte Firma Massive, bestätigt der für die Spielekonsole Xbox zuständige Microsoft-Manager Robbie Bach. Die in New York ansässige Firma mit derzeit rund 80 Beschäftigten hat Verträge unter anderem mit führenden Spiele-Produzenten wie THQ und Konami."
Themenfeld: Suchmaschinen
Objekt: Google ; MSN
-
6Guggenheim, E. ; Bar-Ilan, E.: Tauglichkeit von Suchmaschinen für deutschsprachige Abfragen.
In: Information - Wissenschaft und Praxis. 56(2005) H.1, S.35-40.
Abstract: Diese Arbeit untersucht die Handhabung von deutschsprachigen Abfragen durch Suchmaschinen. Die gängigen Suchmaschinen wurden ursprünglich für das Englische entwickelt das weniger komplex ist als die deutsche Sprache. Dies kann die Qualität von Abfrageresultaten beeinflussen. Es werden sowohl internationale als auch Suchmaschinen aus dem deutschsprachigen Raum untersucht. Der Vergleich mit vorhergehenden Arbeiten und Untersuchungen von verschiedenen Sprachen zeigt dass die Suchmaschinen zunehmend besser für den Umgang mit deutschsprachigen Abfragen entwickelt werden.
Anmerkung: Beitrag in einem Heft mit dem Themenschwerpunkt "Suchmaschinen"
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Bluewin ; Freenet ; Google ; MSN ; T-Online ; Web.de ; Search.ch ; Seekport ; Yahoo
-
7Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN.
In: PC Magazin. 2005, H.2, S.16-18.
(Aktuell: Report Suchmaschinen)
Abstract: Gibt es eine Suche jenseits von Google? Bislang nicht. Nun ist MSN mit einer neuen Suchmaschine angetreten, die es mit Google aufnehmen soll. PC Magazin macht eine Stichprobe.
Inhalt: Selbstbewusst klangen die Worte des Microsoft-Bosses Ballmer bei der Präsentation der neuen Suchmaschine (beta search.msn.de) Mitte November. "Wir werden die Konkurrenz einholen und überholen". Weitaus weniger selbstbewusst sieht aber das zaghafte Agieren des Software-Riesen im Markt aus. Microsoft stellt die neue Suchmaschine als Beta vor, und über das MSN-Portal ist sie gar nicht zu erreichen. Hier gibt es noch die alte Suche, für die MSN den Vertrag mit dem bisherigen Partner Overture um ein Jahr verlängert hat. Vorerst existieren also zwei MSN-Suchmaschinen. Seit langem ist Google unangefochten die Nummer Eins. Es gab keinen ernsthaften Versuch, dem Alphatier der Suchbranche das Vorrecht strittig zu machen. Denn der Erfolg beruht auf einem überlegenen Vorteil: Die Suchergebnisse sind weitaus besser als die der Konkurrenz. Google findet einfach das, was man sucht. Wenn es Google nicht findet, findet es kein Anderer. Selbst wo Google den Anwender ärgert, z.B. wenn die ersten 20 Treffer Spam sind, schaffte es bislang kein anderer Anbieter - der Hauptkonkurrent ist YahooOverture - die Nachteile für sich zu nutzen. Google erscheint dem Beobachter oft ein Microsoft der Suchmaschinen zu sein. Genau Microsoft ist nun angetreten, um Google Paroli zu bieten. Jetzt muss sich die BetaMSN beweisen. Denn als Aufstreber müssen ihre Suchergebnisse besser und aktueller sein und weniger Spam enthalten als die von Google. Geht das? Wir wollten uns überzeugen, ob MSN auf dem richtigen Weg ist und machten bei Google, AltMSN, Beta-MSN, Yahoo und Web.de eine Stichprobe. Wir stellten eine Reihe von Suchfragen, wie sie aus Alltagssituationen entstehen könnten, und prüften jeweils die ersten zehn Treffer. Zur Suchsuppe Ein Anwender, der sich einen Trojaner eingefangen hat, will ihn loswerden. In der Suchmaschine gibt er ein: "trojaner entfernen" ; Als Ergebnisse erwartet er Seiten mit Anleitungen, Tipps, Know-how, Forenbeiträgen oder auch Produktinfos. Bei der Lösung dieses Problems liefert Google einen Volltreffer: Die ersten zehn Ergebnisse antworten genau auf das, was der Anwender wissen möchte. Vier der Ergebnisse stammen aus Foren, die einen unendlichen Wissensschatz bergen. Alt-MSN kam nur auf vier und Beta-MSN auf sechs Treffer. In beiden MSN-Listen fanden sich Spam-Seiten zu Dialern - genau so etwas möchte der Anwender aber gerade loswerden. Da ist er bei Google besser aufgehoben. Ähnlich gut wie Google zeigte sich Web.de mit neun Treffern - jedoch erst, nachdem wir die Suche durch den Ausdruck Anleitung Hilfe Entfernung eingrenzten. Web.de bekommt seine Ergebnisse ebenso wie Yahoo und Alt-MSN von Overture, wobei sich die Ergebnisse in Menge und Relevanz leicht unterschieden. Web.de bietet zusätzlich zu jedem Suchergebnis einen Themenbaum, über den sich die Suche weiter eingrenzen lässt. Im Trojaner-Beispiel verbesserte sich dadurch das Ergebnis, aber wir stellten auch das Gegenteil fest. Zum Beispiel bei unserem nächsten Test: +pizza +rezept -käse Die Suchmaschinen sollten zeigen, dass sie die Operatoren sauber ausführen und nicht doch ein Bröckchen Käse in das Ergebnis schlüpft. Google machte keinen Fehler, lieferte aber dennoch nur vier Volltreffer (mit käsefreien Pizzarezepten eben). Alt-MSN versteht die Operatoren überhaupt nicht und kam zu gar keinen Ergebnissen. Beta-MSN machte drei Syntaxfehler. Das heißt, eines der Suchworte fehlte oder Käse war zuviel. Bei Web.de fanden wir zwei leckere Pizzen, aber nach der Eingrenzung der Suche auf Pizzarezepte verließen uns die Teigfladen mit oder ohne Käse völlig: Kein einziges Pizzarezept fand sich in der Liste. ; Bei der Suche +Dell +Notebook -Pentium konnte Beta-MSN glänzen: Acht von zehn Treffern lieferten Informationen zu Dell-Notebooks ohne Pentium-Prozessor. Bei Google waren es nur sieben. Dann prüften wir weitere Operatoren. Die Anführungszeichen für einen genauen Ausdruck beherrschten alle Roboter fehlerfrei. Boolesche Operatoren wiederum können nur Beta-MSN, Yahoo und Web.de. Diese Suchhilfen werden zwar selten verwendet, liefern aber präzise Ergebnisse zu komplexen Fragestellungen -wenn die Suchmaschine die Syntax fehlerfrei beherrscht. Hier scheint BetaMSN noch zu schwächeln, den es kam zu drei Fehlern. Die nächsten Suchabfragen zielten auf Spam und Dialer: "last minute" "La Palma" und "bauanleitung vogelhäuschen" Es zeigte sich, dass alle Roboter mit Spam zu kämpfen haben, Beta-MSN vorneweg. Bauanleitungen stecken besonders gerne hinter Dialern, und so waren die ersten drei Google-Treffer kostenpflichtig (z.B. 29 Euro). Immerhin förderte Google fünf richtige Seiten hervor. Beta-MSN fand nur vier Seiten - alle unbrauchbar. Mit den letzten drei Fragen testeten wir die Aktualität der Ergebnisse. Als schwierige Testfrage stellte sich Schröder China heraus. Der erste Google-Treffer berichtet gleich von der Schröder-Reise - aber von der aus dem Jahr 2003. Denn der Kanzler reist traditionell jedes Jahr im Dezember nach China. Immerhin finden wir bei Google fünf Seiten zur aktuellen Chinafahrt, ebenso bei BetaMSN, je zwei bei Yahoo und Alt-MSN sowie drei bei Web.de. Bei der Eingabe merkel "cdu-parteitag" konnte Google nun wieder glänzen und warf zehn Treffer zum Dezember-Treffen in Düsseldorf aus. Beta-MSN kam nur auf vier. Vier weitere Seiten berichten von gar keinem Parteitag. Bei Beta-MSN tritt auffällig häufig das Problem auf (nicht nur bei dieser Suche), dass der Roboter Übersichtsseiten von Nachrichten indiziert. Zum Beispiel erschien häufiger www. spiegel.de/politik/deutschland. Doch diese Seite ändert sich stündlich. Wenn dort heute auf einen Artikel über den Parteitag hingewiesen wird, ist er morgen verschwunden. Beta-MSN müsste vielmehr die Artikel selbst in die Datenbank nehmen - so wie Google. Das angesprochene Problem ändert sich auch dann nicht, wenn der Anwender den Aktualitätsschieber hoch stellt. Denn Beta-MSN bietet die einzigartige Möglichkeit, in die Relevanz der Suche eingreifen zu können. Im Suchassistenten gibt der Anwender vor, ob ihm Aktualität, Popularität oder Präzision wichtig ist. Geholfen hat es in diesem Fall nicht. Inzwischen hat MSN ein Such-Tool für den Desktop vorgestellt. Auch hier ist Google ein Vorbild. Fazit Bislang kann sich die Beta noch nicht von anderen Suchmaschinen abheben. Sie liegt in puncto Relevanz, Präzision und Aktualität im Mittelfeld (siehe Tabelle), was an sich kein schlechter Start ist. Meist sind ihre Ergebnisse besser als die von Alt-MSN, aber noch weit von denen von Google entfernt. Links auf Seiten, die es nicht mehr gibt (Fehler 404), traten bei Beta-MSN gar nicht auf. Das spricht dafür, dass der Roboter den Index oft erneuert. Ein endgültiges Urteil schließt sich an dieser Stelle aus, denn es handelt sich um eine BetaVersion. Deswegen auch kein Test und keine Noten."
Anmerkung: Mit Abbildungen zu: (1) Page Views Suchmaschinen Oktober 2004; (2) Benutzereinfluss auf Ranking bei MSN; (3) Stichprobenergebnisse
Themenfeld: Suchmaschinen
Objekt: Google ; MSN
-
8Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur.
In: http://suma-ev.de/tech-rev1.html.
Abstract: Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
Inhalt: Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen. ; Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
Themenfeld: Suchmaschinen
Objekt: Google ; MSN Search
-
9bs: Startschuss zur Desktop Razzia.
In: CD-Info. 2005, H.4, S.40.
(Software: Desktop-Suchmaschinen)
Abstract: Die Suche nach Informationen und Dateien auf dem eigenen PC blieb bisher ein mühsames Unterfangen. Jetzt aber scheint die Zeit für eine neue, zentrale Desktop Anwendung gekommen. Die Schlacht um die Gunst des PC-Anwenders hat begonnen
Themenfeld: Suchmaschinen
Objekt: Copernic ; Google Desktop ; MSN Desktop ; Yahoo Desktop
-
10bs: ¬Der gläserne PC.
In: CD-Info. 2005, H.6, S.32.
(Software: Neuerscheinungen)
Abstract: Lange hat es gedauert, bis die besonderen Fähigkeiten der EDV zum Auffinden von Informationen auch den Desktop-PC erreicht haben. Mittlerweile aber haben einige Branchengrößen die Katze aus dem Sack gelassen und ihre Desktop-Suchmaschinen kostenlos der Userschar vorgelegt. Doch welche Lösung ist die beste? Wir haben die wichtigsten Festplatten-Detektive gründlich durchleuchtet und stellen alle Vor- und Nachteile vor.
Themenfeld: Suchmaschinen
Objekt: Copernic ; Google Desktop Beta ; Yahoo Desktop Beta ; MSN Desktop Search Beta ; Blinkx 3.0 Beta ; Filehand search ; A-Z Finder
-
11Wolf, S.: Konkurrenz bei der wissenschaftlichen Recherche.
In: BuB. 57(2005) H.3, S.215-220.
Abstract: Die Suchmaschinen-Betreiber weiten ihr Angebot kräftig aus Die vergangenen Monate brachten einige Veränderungen auf dem Suchdienste-Sektor. Im »klassischen« Internet-Suchmaschinen-Bereich will sich Yahoo als Nummer 2 etablieren, Microsoft rüstet mit einigen neuen Funktionen auf und Google gibt eine Verdoppelung der Index-Größe bekannt. Die Suchmaschinen-Betreiber, allen voran Google, wagen sich allerdings auch immer mehr in den Bereich der wissenschaftlichen Recherche vor. So durchsucht »Google Scholar« gezielt wissenschaftliche Quellen. Unter dem Namen »Google Print« startet Google eines der größten Digitalisierungsprojekte. Amazon verknüpft mit der Suchmaschine »A9.com« Internet- und Buch-Recherche.
Themenfeld: Suchmaschinen
Objekt: MSN Search ; Google ; Yahoo ; A9.com ; BASE ; Dandelon ; Clusty
-
12BWI: Suchen mit Microsoft : MSN Suche.
In: PC professionell. 2005, H.4, S.42.
Inhalt: "Ab sofort steht Microsofts neu entwickelte Suchmaschine in der finalen Version in 24 Ländern und zehn Sprachen zur Verfügung: Die MSN-Suche soll auf einem Index mit mehr als fünf Milliarden Webdokumenten basieren. Zum Vergleich: Suchmaschinen-Marktführer Google greift auf rund 8 Millionen Webdokumente zu. MSN Search umfasst neben einer News- auch die Encarta-Suche. Damit ist ein kostenfreier Zugriff auf die Enzyklopädie Encarta Online möglich. Die Herkunft der Ergebnisse soll sich im Suchassistenten nach Land/Region, Sprache, Seite/Domain sowie Ergebnisreihenfolge eingrenzen lassen."
Anmerkung: Vgl.: http://search.msn.de
Themenfeld: Suchmaschinen
Objekt: MSN Search
-
13Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft.
In: Password. 2005, H.2, S.26.
Abstract: Im Kampf gegen die Vermüllung ihrer Trefferlisten haben sich die Konkurrenten Google, Microsoft und Yahoo darauf geeinigt, ein neues Attribut für die Verlinkung von Webseiten auszuwerten. Dies könnte ein erster Schritt zu weniger Spam und einer weiteren Zusammenarbeit dergroßen Suchmaschinen sein.
Inhalt: "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: Ankertext. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
Themenfeld: Suchmaschinen
Objekt: Google ; Yahoo ; MSN Search
-
14Kramer, A.: Such, Programm! : Elf kostenlose Desktop-Tools schnüffeln um die Wette.
In: c't. 2005, H.13, S.170-177.
Abstract: Dass die Windows-Suche zu langsam und der Windows-Indexdienst zu umständlich ist, hat der geplagte Nutzer früher zähneknirschend in Kauf nehmen müssen. Mittlerweile gibt es massenweise kostenlose Suchprogramme, die allesamt mehr leisten als die Systembeigaben und zum Teil sogar das Web durchsuchen
Themenfeld: Suchmaschinen
Objekt: A-Z Finder 1.08 ; AutoFocus 2005 ; Blinkx 3.0.2. ; Copernic Desktop Search ; Google Desktop ; Hotbot Desktop 1.0 ; Yahoo Desktop Search 1.1 ; Filehand 3.0 ; Enterprise Search 1.5 ; MSN Toolbar Suite ; x-friend 0.2 Beta
-
15Arnold, A.: Jetzt finden Sie alles schneller.
In: PC-Welt. 2006, H.2, S.96-102.
Abstract: Geniale Tools machen das Leben einfacher und sparen Zeit: Die neuen Desktop-Suchmaschinen finden auf Ihrem PC Mails, Texte, Bilder, Musik und vieles mehr innerhalb von Sekunden.
Inhalt: "Desktop-Suchprogramme finden zu einem Stichwort alle passenden Infos und Dateien auf Ihrem Rechner. Sie arbeiten schnell und sparen die mühsame Suche über den Windows-Explorer, der nur einen Bruchteil der relevanten Informationen findet. Ein Beispiel: Macht etwa der DSL-Zugang Schwierigkeiten und Sie suchen nach Tipps, wie sich das Problem lösen lässt, ist eine Desktop-Suche ideal. Sie findet das Stichwort "DSL" etwa in Ihrer Mailkorrespondenz, wenn Sie von Ihrem Provider mal eine Anleitung bekommen haben. Sie findet Handbücher zu Ihrer DSL-Hardware im PDF-Format. Sie findet Links zu DSL-Websites, wenn Sie solche in Ihren Favoriten haben, und sie findet jede weitere Information zum Thema DSL, die auf Ihrem Rechner gespeichert ist. Doch spüren Sie mit den Tools richt nur Dokumente auf. Sie finden damit auch Bilder und Musikdateien. Wer große Mengen von MP3- oder JPEG-Dateien auf seinem Rechner hat, sollten sich die Tools auf jeden Fall ansehen. Denn sie indizieren auch die Meta-Informationen. Bei Musikdateien ist das zum Beispiel der Name des Künstlers, des Albums oder das Erscheinungsjahr. Diese Informationen stehen in den ID3-Tags (Identify an MP3). In Bildern gibt es Zusatzinfos in den Exif-Daten (Exchangeable Image File Format), die etwa durch Stichwörter wie "Urlaub 2005", "Landschaften" und "Familie" das Foto beschreiben und wieder auffindbar machen. ; Das leisten Desktop-Such Tools Desktop-Suchmaschinen indizieren alle gängigen Dateien auf Ihrem Rechner. Das heißt, sie speichern nicht nur den Dateinamen, sondern scannen auch den darin enthaltenen Text und merken sich diesen. Dazu ist nach der Installation einer Desktop-Suche zunächst mal ein Indizierungsvorgang nötig. Welche Ordner die Software durchsucht, stellen Sie in den Optionen der Programme ein. Die Tools führen die Indizierung nur dann aus, wenn am Rechner gerade nicht gearbeitet wird. Je nach Datenumfang und PC-Geschwindigkeitdauert der erste Suchlauf zwischen 10 Minuten und mehreren Stunden. Die Utilities sind also nach der Installation nicht sofort einsatzbereit. Haben Sie viele Daten auf Ihrem Rechner, kann es sich lohnen, den PC eine Nacht lang eingeschaltet zu lassen. Am nächsten Morgen ist der Index dann auf jeden Fall komplett, und Sie können Ioslegen. Die vorgestellten Desktop-Suchen indizieren alle gängigen Dateiformate. Lediglich dem Tool von Microsoft muss mit einem Plug-in noch das PDF-Format beigebracht werden. Wer auch mit exotischen Formaten arbeitet, findet auf den Websites der Anbieter oft Plugins oder Erweiterungspakete, mit denen die Programme weitere Dateitypen durchsuchen. Der Suchvorgang nach ein oder zwei Stichwörtern läuft bei allen Programmen flott abnach wenigen Sekunden präsentieren sie eine Ergebnisliste. Bei dieser Liste unterscheiden sich die Tools aber. Wir erwarten, dass sich die gefundenen Dateien gut sortieren lassen, etwa nach Ordnern, Dateitypen oder Kategorien wie Musik, Bilder, Dokumente. Zudem sollte jede Software Module zur Vorschau auf die gefundenen Dateien liefern oder aus dem Windows-System einbinden. Die Grenzen der Suchmaschinen Die Leistung der Tools hat uns beeindruckt. Besonders gut gefällt uns, dass sie auch in großen Musik- und Bildersammlungen suchen. Doch zeigen sich hier auch die Grenzen der Suchmaschinen. Damit ein Programm alle Bilder aus dem Urlaub 2005 liefert, muss man die Bilder erst einmal mit den entsprechenden Informationen versehen. Das ist aber mit den Desktop-Suchprogrammen nicht möglich. Sie brauchen dafür ein Spezialprogramm, etwa eine Bildverwaltung, mit dem Sie die Infos eingeben können. Somit brauchen Sie zusätzlich zur Desktop-Suchmaschine auf jeden Fall ergänzende Tools. Ein weiterer, wenn auch kleinerer, Nachteil ist der Speicherplatzbedarf. Für den Cache, der die Infos zu indizierten Dateien enthält, benötigen die Tools bis zu mehreren hundert MB. Spitzenreiter ist hier das Tool von Google, da es auch Kopien der meisten Dateien anlegt. Auch die anderen Programme weisen einen großen Cache auf. Wie viel Platz genau verbraucht wird, hängt von der Zahl und Art der indizierten Dateien ab."
Themenfeld: Suchmaschinen
Objekt: Google Desktop 2.0 ; Copernic Desktop 1.61 ; MSN Desktop 2.5 ; Yahoo Desktop 1.2 ; Swish-E
-
16Microsoft fordert Google heraus.
In: Pirmasenser Zeitung vom 12.11.2004, S.4.
(Wirtschaft)
Inhalt: "Microsoft hat seine lange angekündigte Internet-Suchmaschine als offizielle Testversion ins Netz gestellt. Die Suchmaschine ist ab sofort weltweit in 26 Märkten und in elf Sprachen über die lokalen Websites des InternetDienstes MSN verfügbar. Die deutsche Version ist unter der Adresse http://search.msn.de zu finden. Der größte Softwarekonzern der Welt will die Dominanz von Google im SuchmaschinenMarkt brechen. Microsoft-Manager Mehdi bezeichnete die Veröffentlichung der Betaversion als "riesigen Schritt"."
Anmerkung: Vgl.: http://search.msn.de
Themenfeld: Suchmaschinen
Objekt: MSN
-
17Bager, J.: Wettsuchen : (Meta-)Suchmaschinen sind die Navigatoren im Datenmeer WWW.
In: c't. 2004, H.26, S.156-163.
(Prüfstand: Suchmaschinen-Test)
Abstract: Während immer mehr Surfer mit Google das Internet durchforsten, bohren die Schwergewichte Yahoo und Microsoft ihre Suchdienste mit riesigem Aufwand auf. Doch auch etliche kleine Dienste, darunter Newcomer mit frischen Ideen und Spezialisten für deutsche Sites, treten gegen den Platzhirsch an. Es drängt sich also die Frage auf, ob Google eigentlich immer noch die beste Suchmaschine ist.
Anmerkung: Mit Tabellen der Bewertungsergebnisse
Themenfeld: Suchmaschinen
Objekt: Anyfinder ; Clusty ; Kartoo ; Mamma ; MetaGer ; Metaspinner ; nettz.de ; Abacho ; Google ; Lycos ; MSN Beta ; Plaff ; Seekport ; Web.de ; Yahoo
-
18Lewandowski, D.: Start der eigenen Suchmaschine als Beta-Version.
In: Password. 2004, H.12, S.25.
Abstract: Microsoft hat im November nach einer langen Phase der Ankündigungen eine Beta-Version seiner selbst entwickelten Suchmaschine freigeschaltet (http://beta.search.msn.de). Die Qualität der Suchergebnisse ist nach ersten Tests als gut zu bewerten. Erfreulich, dass auf dem von Yahoo und vor allem Google dominierten Markt nun wenigstens ein dritter Player Fuß fassen wird.
Themenfeld: Suchmaschinen
Objekt: MSN Search
-
19Assadi, H. ; Beauvisage, T.: ¬A comparative study of six french-speaking Web directories.
In: Challenges in knowledge representation and organization for the 21st century: Integration of knowledge across boundaries. Proceedings of the 7th ISKO International Conference Granada, Spain, July 10-13, 2002. Ed.: M. López-Huertas. Würzburg : Ergon Verlag, 2003. S.271-278.
(Advances in knowledge organization; vol.8)
Abstract: This paper presents a comparative study of six French-language Web directories (MSN, Nomade, Open Directory, Voila, Voila Pages Perso, and Yahoo). The study focuses an the quantitative and qualitative aspects of the organization of these directories, and an the way in which they describe sites. It reveals a wide variety of structures, content and organizational principles. In this respect, Web directories do not correspond to classic theories of classification. They highlight the difficulty of proposing a structured representation of the heterogeneous content of the Web.
Themenfeld: Internet ; Suchmaschinen
Objekt: MSN ; Nomade ; Open Directory ; Voila ; Voila Pages Perso ; Yahoo
-
20cw: ¬Das Straßen-Netz.
In: CD-Info. 2002, H.4, S.60-65.
Abstract: Gott sei's gedankt - der Frühling ist da! Die roten Nasen beginnen sich schon langsam wieder zu einem gesünderen Weiß zu verfärben und selbst doe Sommersprossen schicken sich an, im Gesicht wieder aufzublühen. Die Sonne verleiht uns ja dermaßen viel Energie, dass wir es kaum mehr erwarten können, aus dem Käfig des Eigenheims auszubrechen, um die Welt auf ein Neues zu erkunden
Inhalt: Test von Routenplanern: Ambesten abgeschnitten haben: Veturo und Map24
Anmerkung: Web-Adressen der Anbieter: easytour.dr-staedler.de; www.expedia.de; www.falk.de; www.geostar.de; www.map24.com; www.mappy.de; www.marcopolo.de; routing.carview.msn.de; www.opel.de/rec/routenplaner; www.reiseplanung.de; www.reiseoute.de; www.teleinfo.de; www.tiscover.com; www.veturo.com; www.viamichelin.com; route.web.de
Themenfeld: Informationsmittel
Behandelte Form: Karten
Objekt: easyTour Dr. Städler ; Expedia ; Falk ; Geostar ; Map24 ; Mappy ; Marco Polo ; MSN ; Opel ; Reiseplanung ; Reiseroute ; Tele-Info ; Tiscover ; Veturo ; ViaMichelin ; Web.de