Document (#26165)

Author
Patalong, F.
Title
Life after Google : II. Hilfreiche Geister
Source
URL: http://www.spiegel.de/netzwelt/technologie/0,1518,222770,00.html
Year
2002
Series
SPIEGEL ONLINE - 14. November 2002
Content
"Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
Footnote
Zum Thema: Im Internet: · Searchbots: Copernic http://www.copernic.com · Searchbots: Bingoo http://www.bingoo.de · Searchbots: BullsEye http://www.intelliseek.com/ · Searchbots: WebFerret http://www.ferretsoft.com · Seartchbots: Lexibot http://www.lexibot.com/ · Searchbot-Verzeichnis bei Searchenginewatch http://www.searchenginewatch.com/links/utilities.html · CNet Download: die Site, die alles hat http://www.download.com · August Kopisch: "Wie war zu Köln es doch vordem..." http://www.gutenberg2000.de/autoren/kopisch.htm
Theme
Suchmaschinen
Object
Google
Copernic
Bingoo
BuulsEye
WebFerret
Lexibot
SearchEngineWatch

Similar documents (content)

  1. Singh, S.; Ribet, K.A.: ¬Die Lösung des Fermatschen Rätsels (1998) 0.19
    0.19151957 = sum of:
      0.19151957 = product of:
        0.95759785 = sum of:
          0.95759785 = weight(abstract_txt:geister in 1039) [ClassicSimilarity], result of:
            0.95759785 = score(doc=1039,freq=1.0), product of:
              0.6401829 = queryWeight, product of:
                1.8056594 = boost
                9.573242 = idf(docFreq=7, maxDocs=42306)
                0.03703473 = queryNorm
              1.4958191 = fieldWeight in 1039, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                9.573242 = idf(docFreq=7, maxDocs=42306)
                0.15625 = fieldNorm(doc=1039)
        0.2 = coord(1/5)
    
  2. Hacking, I.: Streit um alternative Passungsverhältnisse : Kontingenz versus Unvermeidlichkeit: sind Quarks soziale Konstrukte? (1998) 0.19
    0.19151957 = sum of:
      0.19151957 = product of:
        0.95759785 = sum of:
          0.95759785 = weight(abstract_txt:geister in 3181) [ClassicSimilarity], result of:
            0.95759785 = score(doc=3181,freq=1.0), product of:
              0.6401829 = queryWeight, product of:
                1.8056594 = boost
                9.573242 = idf(docFreq=7, maxDocs=42306)
                0.03703473 = queryNorm
              1.4958191 = fieldWeight in 3181, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                9.573242 = idf(docFreq=7, maxDocs=42306)
                0.15625 = fieldNorm(doc=3181)
        0.2 = coord(1/5)
    
  3. Wilson, S.: World Wide Web Design Guide : professionelle Web-Sites gestalten (1996) 0.15
    0.14651665 = sum of:
      0.14651665 = product of:
        0.7325832 = sum of:
          0.7325832 = weight(abstract_txt:hilfreiche in 3442) [ClassicSimilarity], result of:
            0.7325832 = score(doc=3442,freq=1.0), product of:
              0.6792369 = queryWeight, product of:
                1.8599207 = boost
                9.860925 = idf(docFreq=5, maxDocs=42306)
                0.03703473 = queryNorm
              1.0785387 = fieldWeight in 3442, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                9.860925 = idf(docFreq=5, maxDocs=42306)
                0.109375 = fieldNorm(doc=3442)
        0.2 = coord(1/5)
    
  4. Mejer, J.J.; Conkling, T.W.: Google Scholar's coverage of the engineering literature : an empirical study (2008) 0.13
    0.12928934 = sum of:
      0.12928934 = product of:
        0.32322335 = sum of:
          0.11386065 = weight(abstract_txt:after in 4227) [ClassicSimilarity], result of:
            0.11386065 = score(doc=4227,freq=1.0), product of:
              0.19635068 = queryWeight, product of:
                5.3017983 = idf(docFreq=572, maxDocs=42306)
                0.03703473 = queryNorm
              0.5798842 = fieldWeight in 4227, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.3017983 = idf(docFreq=572, maxDocs=42306)
                0.109375 = fieldNorm(doc=4227)
          0.20936272 = weight(abstract_txt:google in 4227) [ClassicSimilarity], result of:
            0.20936272 = score(doc=4227,freq=3.0), product of:
              0.20433486 = queryWeight, product of:
                1.0201288 = boost
                5.4085174 = idf(docFreq=514, maxDocs=42306)
                0.03703473 = queryNorm
              1.024606 = fieldWeight in 4227, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                5.4085174 = idf(docFreq=514, maxDocs=42306)
                0.109375 = fieldNorm(doc=4227)
        0.4 = coord(2/5)
    
  5. Pinna, L.; Wessels, W.: Wissensorganisationssysteme für Archäologie und Kulturerbe (2013) 0.13
    0.1255857 = sum of:
      0.1255857 = product of:
        0.6279285 = sum of:
          0.6279285 = weight(abstract_txt:hilfreiche in 2923) [ClassicSimilarity], result of:
            0.6279285 = score(doc=2923,freq=1.0), product of:
              0.6792369 = queryWeight, product of:
                1.8599207 = boost
                9.860925 = idf(docFreq=5, maxDocs=42306)
                0.03703473 = queryNorm
              0.9244617 = fieldWeight in 2923, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                9.860925 = idf(docFreq=5, maxDocs=42306)
                0.09375 = fieldNorm(doc=2923)
        0.2 = coord(1/5)