Search (584 results, page 1 of 30)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.18
    0.1838923 = product of:
      0.69879067 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.11665589 = score(doc=2514,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.2631579 = coord(5/19)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.01
    0.014792612 = product of:
      0.070264906 = sum of:
        0.021113615 = weight(_text_:deutsche in 3671) [ClassicSimilarity], result of:
          0.021113615 = score(doc=3671,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.18261507 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.013154183 = weight(_text_:und in 3671) [ClassicSimilarity], result of:
          0.013154183 = score(doc=3671,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 3671, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.030192196 = weight(_text_:leben in 3671) [ClassicSimilarity], result of:
          0.030192196 = score(doc=3671,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.21837488 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.0058049103 = product of:
          0.011609821 = sum of:
            0.011609821 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
              0.011609821 = score(doc=3671,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.1354154 = fieldWeight in 3671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3671)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  3. Lamprecht, S.: Professionelle Recherche im Internet (1999) 0.01
    0.014271111 = product of:
      0.09038371 = sum of:
        0.043447077 = weight(_text_:literatur in 3856) [ClassicSimilarity], result of:
          0.043447077 = score(doc=3856,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 3856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3856)
        0.02079859 = weight(_text_:und in 3856) [ClassicSimilarity], result of:
          0.02079859 = score(doc=3856,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38329202 = fieldWeight in 3856, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3856)
        0.026138037 = product of:
          0.052276075 = sum of:
            0.052276075 = weight(_text_:allgemein in 3856) [ClassicSimilarity], result of:
              0.052276075 = score(doc=3856,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.40637016 = fieldWeight in 3856, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3856)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Dieses Buch bietet einen sehr guten Überblick, wie man sich Informationen schnell und effizient verschaffen kann. Neben Suchmaschinen werden auch Mailing-Listen und Newsgroups (Diskussionforen) vorgestellt. Es wird anschaulich beschrieben, wie sie gegliedert sind und wie man daran teilnehmen kann. Rund die Hälfte des Buches beschäftigt sich mit Spezialrecherchen, wie etwa die Suche nach Software, Personen oder Jobs. Im Kapitel 'Quellen für Aus- und Fortbildung' findet man neben der 'Free Internet Encyclopdedia' und den 'Online Dictionaries' viele weitere nützliche Adressen. Obwohl sich das Buch primär an Profis richtet, ist es auch für Einsteiger geeignet. Die Recherchestrategien werden allgemein verständlich erklärt
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  4. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.01
    0.014241758 = product of:
      0.0901978 = sum of:
        0.060324617 = weight(_text_:deutsche in 6566) [ClassicSimilarity], result of:
          0.060324617 = score(doc=6566,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.52175736 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.013287731 = weight(_text_:und in 6566) [ClassicSimilarity], result of:
          0.013287731 = score(doc=6566,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.016585458 = product of:
          0.033170916 = sum of:
            0.033170916 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.033170916 = score(doc=6566,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Der deutsche Konkurrent, der Lieferant in Fernost oder der neue Partner für Nordamerika - sie alle sind vielleicht schon im Internet vertreten. Das Wissen um ihre Existenz und die Kenntnis ihrer Internet-Adresse ist wichtig, vielleicht sogar entscheidend im Wettbewerb. Aber wie finden?
    Date
    22. 2.1997 19:50:29
  5. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.01
    0.0133143775 = product of:
      0.06324329 = sum of:
        0.015081154 = weight(_text_:deutsche in 1163) [ClassicSimilarity], result of:
          0.015081154 = score(doc=1163,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.13043934 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.017261269 = weight(_text_:und in 1163) [ClassicSimilarity], result of:
          0.017261269 = score(doc=1163,freq=54.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3181036 = fieldWeight in 1163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.021565856 = weight(_text_:leben in 1163) [ClassicSimilarity], result of:
          0.021565856 = score(doc=1163,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.15598206 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.009335013 = product of:
          0.018670026 = sum of:
            0.018670026 = weight(_text_:allgemein in 1163) [ClassicSimilarity], result of:
              0.018670026 = score(doc=1163,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.1451322 = fieldWeight in 1163, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1163)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  6. Herwig, C.: Stöbern im Datennetz : Die richtige Seite im Internet findet nur, wer seine Suchanfrage klug formuliert (2003) 0.01
    0.0128419995 = product of:
      0.08133267 = sum of:
        0.024129845 = weight(_text_:deutsche in 2440) [ClassicSimilarity], result of:
          0.024129845 = score(doc=2440,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.20870294 = fieldWeight in 2440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=2440)
        0.014062412 = weight(_text_:und in 2440) [ClassicSimilarity], result of:
          0.014062412 = score(doc=2440,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.25915268 = fieldWeight in 2440, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2440)
        0.043140408 = sum of:
          0.029872041 = weight(_text_:allgemein in 2440) [ClassicSimilarity], result of:
            0.029872041 = score(doc=2440,freq=2.0), product of:
              0.12864152 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.024482876 = queryNorm
              0.23221152 = fieldWeight in 2440, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.03125 = fieldNorm(doc=2440)
          0.013268366 = weight(_text_:22 in 2440) [ClassicSimilarity], result of:
            0.013268366 = score(doc=2440,freq=2.0), product of:
              0.08573486 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.024482876 = queryNorm
              0.15476047 = fieldWeight in 2440, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2440)
      0.15789473 = coord(3/19)
    
    Content
    "Wer etwas sucht in den Weiten des Datennetzes und die genaue Adresse nicht kennt, der benutzt eine Suchmaschine. Ganz oben auf der Beliebtheitsskala steht dabei nach wie vor Google, für Deutschsprachige zu finden unter www.google.de. Gründe für die Popularität des zum Multi-MilliardenDollar-Unternehmen gewachsenen Studentenprojekts gibt es viele: Pragmatiker schwören einfach auf die guten Suchergebnisse, Freaks schätzen die "bells and whistles", das Drumherum, das die Suche komfortabel macht: - Für halbwegs Eindeutiges gelangt man kinderleicht ans Ziel: Die Suchbegriffe "Motor" und "Sport" fördern nur Dokumente zu Tage, die beide Stichworte enthalten. Ganz oben werden dabei die Seiten angezeigt, in denen beide Begriffe im Text direkt hintereinander stehen. Faustregel: Je mehr Begriffe Sie angeben, desto genauer sind hinterher die angezeigten Treffer. - Trickreicher wird es, wenn die Suchbegriffe nicht so eindeutig sind. Wer zum Beispiel etwas zu Hamlets berühmtester Textzeile sucht, sollte Anführungszeichen um den Suchbegriff verwenden: "Sein oder nicht sein" liefert nur die Dokumente, in denen die Begriffe exakt in dieser Schreibweise und Reihenfolge enthalten sind. Ergänzen Sie noch "hamlet" als zusätzlichen Suchbegriff (außerhalb der Anführungszeichen), werden die Seiten noch ergiebiger. - Sie erhalten völlig falsche Suchergebnisse, weil die Stichworte eine Doppelbedeutung haben? Ausschluss-Wörter sind die Lösung. Suchen Sie beispielsweise etwas zu Phaeton und denken dabei an das Automodell, aber sicher nicht an griechische Götter und Legenden? Verwenden Sie phaeton-auto-car-vw als Suche, um alle Seiten zu ignorieren, in denen es um dass falsche Thema geht; - Schwierig kann es auch werden, wenn Ihr Such-Stichwort dummerweise zu allgemein ist. Die Gerätebezeichnung is 380 (ein Kopfhörermodell) wird von Google nur mit der Meldung "'is' ist ein sehr häufiges Wort und wurde in der Suchanfrage ignoriert" quittiert. Abhilfe schafft die Suche mit "+is 380". - Sollen die Ergebnisse auf eine bestimmte Webseite oder Region begrenzt werden, kann ein weiterer Parameter helfen: "windows site:tippscout.de" liefert alle Seiten zum Thema Windows, aber eben nur von www.tippscout.de. Analog begrenzt "site:br" die Suche auf Seiten aus Brasilien, "-site:de" schließt deutsche Seiten von der Suche aus. - Sie interessieren sich fürs Grundgesetz, wollen aber keine seitenlangen Diskussionen, sondern nur das Dokument selbst lesen? Geben Sie den Dateityp an: "grundgesetz filetype:pdf° liefert das Gewünschte. Ebenso funktionieren natürlich doc, xls, jpg und andere Dateiarten. - Neben der Suchfunktion bietet Google noch etliche weitere Extras: Geben Sie doch einfach einmal Ihre Postleitzahl als Suchbegriff an. Google liefert den Link zu einem Stadtplan als Ergebnis.
    Date
    3. 5.1997 8:44:22
  7. dpa: Froogle sucht nach Produkten (2004) 0.01
    0.012088642 = product of:
      0.076561406 = sum of:
        0.04825969 = weight(_text_:deutsche in 2865) [ClassicSimilarity], result of:
          0.04825969 = score(doc=2865,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=2865)
        0.015033351 = weight(_text_:und in 2865) [ClassicSimilarity], result of:
          0.015033351 = score(doc=2865,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 2865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2865)
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 2865) [ClassicSimilarity], result of:
              0.026536733 = score(doc=2865,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 2865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2865)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Content
    "Ab sofort bietet Google als neuen Service auch in Deutschland die Produkt-Suchmaschine Froogle an. Froogle Deutschland sucht im Netz mit Hilfe der gleichen Technologie wie Google nach Informationen über Produkt-Angebote. Die Treffer können nach dem Preis sortiert und mit Bild gezeigt werden. Google, der führende Internet-Suchmaschinenbetreiber, erwartet nach jüngsten Studien, dass dieses Jahr 23 Millionen Deutsche online einkaufen und dabei über 7,6 Milliarden Euro ausgeben werden. Wie viele Einträge die Produktdatenbank zum Start bereit hält, teilte das Uriternehmen nicht mit. In den USA ist Froogle bereits seit rund zwei Jahren verfügbar."
    Date
    3. 5.1997 8:44:22
  8. Alby, T.; Karzauninkat, S.: Suchmaschinenoptimierung : professionelles Website-Marketing für besseres Ranking ; [berücksichtigt Google Analytics] (2007) 0.01
    0.011695965 = product of:
      0.07407445 = sum of:
        0.0248269 = weight(_text_:literatur in 35) [ClassicSimilarity], result of:
          0.0248269 = score(doc=35,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.21169594 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.028124824 = weight(_text_:und in 35) [ClassicSimilarity], result of:
          0.028124824 = score(doc=35,freq=56.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.51830536 = fieldWeight in 35, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.021122724 = product of:
          0.042245448 = sum of:
            0.042245448 = weight(_text_:allgemein in 35) [ClassicSimilarity], result of:
              0.042245448 = score(doc=35,freq=4.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.32839668 = fieldWeight in 35, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=35)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Mit Suchmaschinenoptimierung. Professionelles Website-Marketing für besseres Ranking liefern Stefan Karzauninkat und Tom Alby einen sauberen Überblick über Grundlagen, Gründe, Maßnahmen und Zielsetzungen von suchmaschinenoptierten Websites. Essentielles Internet-Wissen auf dem aktuellen Stand. Karzauninkat und Alby widmen ihr Buch Entscheidern, Konzeptionern, Designern und Webmastern, die ihre Website, ob neu oder alt, im Gesamtzusammenhang des Internet sehen und verstehen wollen. Suchmaschinen sind und waren dabei schon immer ein wesentlicher Faktor, denn sie sind die Instanz, die eine Website und deren Informationen findet, wenn sie gesucht wird. Die Sucharbeit der Maschinen kann man ignorieren, behindern oder unterstützen -- wenn man weiß wie. Karzauninkat und Alby haben ihr Wissen praktisch erworben. Vor allem Karzauninkat kann zahlreiche Internetprojekt vorweisen, zu denen auch die bekannte und viel besuchte Suchmaschinen-Website www.suchfibel.de gehört. Ziel der beiden Autoren ist es, ein allgemeines Verständnis für die Such- und Gefundenwelt des Internet und dauerhafte und anhaltende Maßnahmen für die gefunden-werden-Bilanz sowie die Platzierung innerhalb der Liste der gefundenen Suchergebnisse zu vermitteln. Überzeugen, erklären und zeigen lautet die Devise: Am Anfang steht eine Einführung mit dem Titel "Wozu das Ganze". Argumentationsstoff und Fakten für den folgenden Aufwand. Darauf folgt die Website-Optimierung als Teil der Unternehmenskommunikation und dieses Kapitel zeigt auch einen Fokus der beiden: Verkaufen. Nun gut, welcher Zweck auch immer, die Mittel sind immer die gleichen. Als nächstes stellen sie Suchmaschinen und ihre Funktionsweise vor, bevor sie sich dann dem Kern ihres Buches widmen: die Optimierung zur Positionsverbesserung. Hier entschlüsseln sie die Bedeutung von Inhalt, erklären kurz die technischen Belange und zeigen wo es Probleme und Widerstände geben kann. Auch professionelle Dienstleister für die Website-Optimierung nehmen sie unter die Lupe. Zuletzt dann Suchmaschinenmarketing, laufende Maßnahmen zur Erfolgskontrolle und dann noch sechs kurze Fallbeispiele. Ebenso bieten sie ein Glossar und einen Anhang mit Server-Response-Codes, Agents und Meta-Tags sowie weiterführende Literatur und Weblinks. Übrigens steht den Druck-Käufern das gesamte Buch auch als eBook zur Verfügung! Suchmaschinenoptimierung ist ein guter, locker geschriebener und leicht zu lesender, vor allem aktueller Überblick mit einem Gespür für die Fragen und Bedürfnisse der Zielgruppe von Entscheider bis Webmaster. Wer Suchmaschinen-Verständnis ohne technische Überlastung sucht, liest hier zufrieden.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
  9. Seiffert, F.: ¬Das "Virtuelle Bücherregal NRW" : Literatursuche mit der einfachsten Suchstrategie: Google und Co. (2003) 0.01
    0.011327187 = product of:
      0.071738854 = sum of:
        0.031033624 = weight(_text_:literatur in 1641) [ClassicSimilarity], result of:
          0.031033624 = score(doc=1641,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.26461992 = fieldWeight in 1641, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.02203521 = weight(_text_:und in 1641) [ClassicSimilarity], result of:
          0.02203521 = score(doc=1641,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.40608138 = fieldWeight in 1641, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.018670026 = product of:
          0.037340052 = sum of:
            0.037340052 = weight(_text_:allgemein in 1641) [ClassicSimilarity], result of:
              0.037340052 = score(doc=1641,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.2902644 = fieldWeight in 1641, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1641)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    In jüngerer Zeit wird immer häufiger die »Ein-Klick-Mentalität« der Unkundigen kritisiert und auf die wesentlichen besseren Suchergebnisse verwiesen, die Kundige mit Digitalen Bibliotheken und Metasuchen erzielen können. Ein Ausweg könnte die Strategie sein, sich diese Ein-Klick-Mentalität zunutze zu machen und die Unkundigen über Google und Co. zu den »teuren Schätzen«, den elektronischen Inhalten und Hinweisen zur wissenschaftlichen Literatur, zu führen.
    Content
    Kommentar der Redaktion: "Schon heute sind große Bereiche des Internet über Suchmaschinen nicht recherchierbar, obwohl die betreffenden Angebote relevante und aktuelle Informationen enthalten können. Bei diesen für Suchmaschinen »unsichtbaren« Inhalten im so genannten Deep Web handelt es sich in der Regel um dynamische Seiten, die erst durch konkrete Anfragen eines Internetnutzers erzeugt werden. Die dabei meist aus Datenbanken abgerufenen Informationen (zum Beispiel Fahrpläne, viele Warenkataloge oder bibliographische Bestandsnachweise) sind nur temporär und ausschließlich für den Anfragenden im Internet verfügbar. Die übrige Zeit bleiben die Informationen für Suchmaschinen wie Google oder Alltheweb »verborgen« (aus diesem Grund wird das Deep Web auch als Invisible Web bezeichnet), oder ihre Erschließung wäre für die Suchmaschinenbetreiber zu aufwendig. Auch die vom Hochschulbibliothekszentrum Nordrhein Westfalen (www. hbz-nrw.de) vorgehaltenen bibliographischen Informationen und Bestandsnachweise konnten bislang im Internet nur über die Schnittstelle der Datenbank recherchiert werden. Das HBZ hat sich mit dem Angebot des Virtuellen Bücherregals NRW zum Ziel gesetzt, die in der HBZ-Verbunddatenbank abgelegten Informationen für die gängigen Internetsuchmaschinen »sichtbar« zu machen. Der vorliegende Beitrag erläutert ausführlich, wie die Titeldaten in separate HTMLSeite überführt wurden. Und er gibt vor allem eine Antwort auf die spannende Frage, ob die Suchmaschinen diesen »Köder« auch wirklich geschluckt und infolgedessen neue Kundschaft zum HBZ geführt haben." (rei)
    Theme
    Katalogfragen allgemein
  10. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.01
    0.0112156775 = product of:
      0.07103263 = sum of:
        0.02047777 = weight(_text_:und in 5956) [ClassicSimilarity], result of:
          0.02047777 = score(doc=5956,freq=76.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3773797 = fieldWeight in 5956, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
        0.037353158 = weight(_text_:leben in 5956) [ClassicSimilarity], result of:
          0.037353158 = score(doc=5956,freq=6.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.27016887 = fieldWeight in 5956, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
        0.013201702 = product of:
          0.026403405 = sum of:
            0.026403405 = weight(_text_:allgemein in 5956) [ClassicSimilarity], result of:
              0.026403405 = score(doc=5956,freq=4.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.20524792 = fieldWeight in 5956, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5956)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Die Internet-Suchmaschinen von Google, Yahoo, Lycos & Co. liefern längst mehr als nur eine inhaltliche Orientierung im unübersichtlichen Webseiten-Dschungel. Mit ihrem Geschäftsmodell, die gesammelten Kundendaten für Anzeigenkunden zu erschließen, haben die Suchmaschinenbetreiber der Internetwirtschaft kommerzielles Leben eingehaucht. Dass sich vor allem die Google-Gründer Brin und Page damit nicht nur Freunde geschaffen haben, beschreibt Autor John Battelle ebenso, wie er die Notwendigkeit darlegt, dem Internet geschäftlich tragfähige Strukturen zu geben. Seine Erfahrung als Insider der Internetwirtschaft - er ist Mitgründer des Magazins "Wired" - kommt der faktenreichen Analyse zugute. Wir empfehlen dieses Buch allen Internetnutzern, die wissen wollen, was hinter Google & Co. steckt und wie die Suchmaschinen unser Leben beeinflussen. --- Eine ebenso profunde wie lesbare Geschichte der Online-Suche und ihrer Erlösmodelle erzählt der Suchmaschinenexperte John Battelle. Faszinierend ist, sich wieder einmal vor Augen zu führen, * dass von den Altavistas und Excites der frühen Internettage quasi nur Yahoo überlebt hat. * dass Google, 1998 gegründet, erst seit gut 5 Jahren die Internetsuche bestimmt * dass die Google Adwords als Einnahmequelle auf der Google-Seite erst seit etwa 4 Jahren existieren * dass das Google Adsense Konzept (Google-Kleinanzeigen auf beliebigen Homepages) erst vor drei Jahren eingeführt wurde. John Battelle geht davon aus, dass sich bei der Internetsuche noch so viel tun wird, dass er sich nicht auf die Google-Geschichte beschränken wollte. So macht er aus der Not eine Tugend und beschreibt die Wellen der Internetsuche. Er macht deutlich, warum sich bestimmte Konzepte und Ideen durchgesetzt haben und kehrt immer wieder zur Kernidee zurück: Die perfekte Suche erkennt die Absicht des Suchenden. Die Relevanz der Ergebnisse ist das A und O. Sie zu erhöhen, daran arbeiten sämtliche bekannten und noch unbekannten Anbieter. Fazit: Ein Buch, das für Google-Fans genauso interessant ist wie für die, die sich über die Bedeutung und den Einfluss der Suche auf unser Leben klar werden wollen. Suchalgorithmen sind ein hochtechnisches Gebiet. Battelle gelingt es jedoch, auch die technischen Ansätze allgemein verständlich zu beschreiben.
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
    So gehen die Autoren dem Motto von Google, "don't be evil", nach und beschreiben die vielen Reibungspunkte, die Google als börsenorientiertes Unternehmen zum einen, und ihre Ideale der perfekten Suche zum anderen, verursachen. Ein besonderes Augenmerk widmet Battelle dem Geschäftsmodell von Google und anderer Suchdienste - der Werbung. Mit dem unaufhaltsamen Aufstieg des e-Commerce ist auch die Such-Wirtschaft zig Milliarden Dollar schwer geworden - die Symbiose ist nahezu perfekt. Viele (kleine) Unternehmen hängen direkt oder indirekt von Suchmaschinen ab, beziehen zu einem Großteil ihre Kunden direkt über deren Trefferlisten. Es ist daher nicht verwunderlich, dass Spam und Anti-Spam-Maßnahmen der Suchmaschinen ein Wettrennen ist, welches weite Kreise zieht. Im letzten Drittel des Buches verlässt Battelle die Vergangenheit und wendet sich den Trends und den künftigen Absichten der Such-Industrie zu. Hier bleibt alles spekulativ; Trends werden vorsichtig angerissen. Die Branche ist zu dynamisch, um hier eine klarere Vision zu entwickeln, doch der Autor nennt zahlreiche Möglichkeiten, Gefahren und Grenzen, die in Zukunft Google & Co begegnen werden. Empfehlung: Das Buch, welches auch ohne technischen Hintergrund sehr gut verständlich bleibt, ist sehr locker geschrieben. Es ist eine gute, sehr persönliche Einführung in die Geschichte der Suchmaschinen und der Suche allgemein, der Focus auf Google ist jedoch bestimmend. Das Interesse des Autors für geschäftliche Vorgänge, Strategien und Geschäftsentscheidungen ist für die Börsen-interessierten Leserinnen besonders spannend. Themen wie Informationsethik kommen am Rande vor, sind aber meist im Zusammenhang mit Googles Unternehmensphilosophie beschrieben und werden nicht in der Tiefe diskutiert. Ohne Zweifel, das Buch lebt am Puls der Zeit."
  11. Gilster, P.: Suchen und Finden im Internet (1995) 0.01
    0.011104945 = product of:
      0.10549698 = sum of:
        0.086894155 = weight(_text_:literatur in 6617) [ClassicSimilarity], result of:
          0.086894155 = score(doc=6617,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.7409358 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.109375 = fieldNorm(doc=6617)
        0.018602824 = weight(_text_:und in 6617) [ClassicSimilarity], result of:
          0.018602824 = score(doc=6617,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6617)
      0.10526316 = coord(2/19)
    
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  12. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.01
    0.010235615 = product of:
      0.064825565 = sum of:
        0.018097384 = weight(_text_:deutsche in 3374) [ClassicSimilarity], result of:
          0.018097384 = score(doc=3374,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.1565272 = fieldWeight in 3374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3374)
        0.014372879 = weight(_text_:und in 3374) [ClassicSimilarity], result of:
          0.014372879 = score(doc=3374,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2648742 = fieldWeight in 3374, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3374)
        0.032355305 = sum of:
          0.02240403 = weight(_text_:allgemein in 3374) [ClassicSimilarity], result of:
            0.02240403 = score(doc=3374,freq=2.0), product of:
              0.12864152 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.024482876 = queryNorm
              0.17415863 = fieldWeight in 3374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
          0.009951275 = weight(_text_:22 in 3374) [ClassicSimilarity], result of:
            0.009951275 = score(doc=3374,freq=2.0), product of:
              0.08573486 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.024482876 = queryNorm
              0.116070345 = fieldWeight in 3374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
      0.15789473 = coord(3/19)
    
    Content
    "Googeln hat es bis in den Duden geschafft. Kein Wunder, dass viele das Angebot aus dem kalifornischen Mountain View quasi als amtliche Internet-Suchmaschine betrachten und nutzen. Wegen seiner unzähligen Zusatzdienste vom Webmailer bis hin zu Onlinekarten hat sich Google aber auch den Ruf eines Datenkraken erworben. Auch deshalb wenden sich viele Nutzer den Suchmaschinen der Konkurrenz zu. So propagiert der Verein für freien Wissenszugang (Suma eV) aus Hannover, dass es wichtig sei, "mehrere, unabhängig voneinander arbeitende Suchmaschinen einzusetzen, um einen möglichst neutralen und umfassenden Überblick geeigneter Quellen zu erhalten". Schirmherr des Vereins ist der MP3-Erfinder Karlheinz Brandenburg. Bei einem Quasi-Monopol wie es Google innehat, bestehe "auf Dauer die Gefahr, dass die Ergebnisse der Informationssuche von Einflüssen nicht allgemein erkennbarer Mechanismen der Betreiber geleitet werden." Laut dem Internet-Statistikdienst Hitslink liefen in diesem Jahr bisher knapp 86 Prozent aller Suchanfragen weltweit über Google. Platz zwei belegt weit abgeschlagen Yahoo mit knapp sechs Prozent. Microsofts Suche Bing belegt - noch nicht einmal ein Jahr alt - mit gut drei Prozent bereits den dritten Rang. Vergleichsweise stark genutzt wird rund um den Globus auch noch die globale Suche von Ask. Hindernisse türmen sich vor wechselfreudigen Surfern jedenfalls nicht auf und Probieren kostet nichts. Jeder beliebige Suchdienst lässt sich bei Browsern wie Firefox oder Internet Explorer mühelos einbinden oder als Startseite festlegen.
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
    Date
    3. 5.1997 8:44:22
  13. Hannemann, M.: Online ins Schlaraffenland der Wissenschaft : Literatur-Recherche im Internet ist ein teures Unterfangen ohne Erfolgsgarantie - Doch wer systematisch sucht, gelangt zügig ans Ziel (1999) 0.01
    0.009935079 = product of:
      0.094383255 = sum of:
        0.074480705 = weight(_text_:literatur in 3106) [ClassicSimilarity], result of:
          0.074480705 = score(doc=3106,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.63508785 = fieldWeight in 3106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.09375 = fieldNorm(doc=3106)
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 3106) [ClassicSimilarity], result of:
              0.0398051 = score(doc=3106,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 3106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3106)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    3. 5.1997 8:44:22
  14. Levy, S.: In the plex : how Google thinks, works, and shapes our lives (2011) 0.01
    0.009742911 = product of:
      0.061705105 = sum of:
        0.021113615 = weight(_text_:deutsche in 9) [ClassicSimilarity], result of:
          0.021113615 = score(doc=9,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.18261507 = fieldWeight in 9, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.010399295 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.010399295 = score(doc=9,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19164601 = fieldWeight in 9, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.030192196 = weight(_text_:leben in 9) [ClassicSimilarity], result of:
          0.030192196 = score(doc=9,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.21837488 = fieldWeight in 9, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
      0.15789473 = coord(3/19)
    
    BK
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    05.20 / Kommunikation und Gesellschaft
    Classification
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    05.20 / Kommunikation und Gesellschaft
    Footnote
    Deutsche Übersetzung als: Googlenomics : Wie Google denkt, arbeitet und unser Leben verändert. Heidelberg, Neckar ; mitp/bhv ; 2011. Rez. in: JASIST 62(2011) no.12, S.2540-2543 (C. Leslie)
  15. Suchen und Finden im Internet : oder: "Die Nadel im Heuhaufen" (2001) 0.01
    0.009518525 = product of:
      0.09042598 = sum of:
        0.074480705 = weight(_text_:literatur in 4489) [ClassicSimilarity], result of:
          0.074480705 = score(doc=4489,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.63508785 = fieldWeight in 4489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.09375 = fieldNorm(doc=4489)
        0.015945276 = weight(_text_:und in 4489) [ClassicSimilarity], result of:
          0.015945276 = score(doc=4489,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 4489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4489)
      0.10526316 = coord(2/19)
    
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  16. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.01
    0.009356517 = product of:
      0.059257947 = sum of:
        0.031033624 = weight(_text_:literatur in 5773) [ClassicSimilarity], result of:
          0.031033624 = score(doc=5773,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.26461992 = fieldWeight in 5773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.019931596 = weight(_text_:und in 5773) [ClassicSimilarity], result of:
          0.019931596 = score(doc=5773,freq=18.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3673144 = fieldWeight in 5773, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.008292729 = product of:
          0.016585458 = sum of:
            0.016585458 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
              0.016585458 = score(doc=5773,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.19345059 = fieldWeight in 5773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5773)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  17. Place, E.: International collaboration on Internet subject gateways (2000) 0.01
    0.009038956 = product of:
      0.057246722 = sum of:
        0.030162308 = weight(_text_:deutsche in 4584) [ClassicSimilarity], result of:
          0.030162308 = score(doc=4584,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.26087868 = fieldWeight in 4584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4584)
        0.018791689 = weight(_text_:und in 4584) [ClassicSimilarity], result of:
          0.018791689 = score(doc=4584,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 4584, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4584)
        0.008292729 = product of:
          0.016585458 = sum of:
            0.016585458 = weight(_text_:22 in 4584) [ClassicSimilarity], result of:
              0.016585458 = score(doc=4584,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.19345059 = fieldWeight in 4584, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4584)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Eine ganze Anzahl von Bibliotheken in Europa befaßt sich mit der Entwicklung von Internet Subject Gateways - einer Serviceleistung, die den Nutzern helfen soll, qualitativ hochwertige Internetquellen zu finden. Subject Gateways wie SOSIG (The Social Science Information Gateway) sind bereits seit einigen Jahren im Internet verfügbar und stellen eine Alternative zu Internet-Suchmaschinen wie AltaVista und Verzeichnissen wie Yahoo dar. Bezeichnenderweise stützen sich Subject Gateways auf die Fertigkeiten, Verfahrensweisen und Standards der internationalen Bibliothekswelt und wenden diese auf Informationen aus dem Internet an. Dieses Referat will daher betonen, daß Bibliothekare/innen idealerweise eine vorherrschende Rolle im Aufbau von Suchservices für Internetquellen spielen und daß Information Gateways eine Möglichkeit dafür darstellen. Es wird einige der Subject Gateway-Initiativen in Europa umreißen und die Werkzeuge und Technologien beschreiben, die vom Projekt DESIRE entwickelt wurden, um die Entwicklung neuer Gateways in anderen Ländern zu unterstützen. Es wird auch erörtert, wie IMesh, eine Gruppe für Gateways aus der ganzen Welt eine internationale Strategie für Gateways anstrebt und versucht, Standards zur Umsetzung dieses Projekts zu entwickeln
    Date
    22. 6.2002 19:35:35
    Footnote
    Vgl. auch die deutsche Fassung unter: http://www.ifla.org/IV/ifla65/papers/009-143g.htm.
  18. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.01
    0.008772595 = product of:
      0.08333965 = sum of:
        0.060324617 = weight(_text_:deutsche in 1159) [ClassicSimilarity], result of:
          0.060324617 = score(doc=1159,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.52175736 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.023015026 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.023015026 = score(doc=1159,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.10526316 = coord(2/19)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  19. Sülzer, T.: Bingen statt Googeln : Die neue Microsoft-Suchmaschine: Deutsche Version ist vorerst nur als "Beta" erreichbar (2009) 0.01
    0.008767729 = product of:
      0.05552895 = sum of:
        0.036569856 = weight(_text_:deutsche in 4566) [ClassicSimilarity], result of:
          0.036569856 = score(doc=4566,freq=6.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.3162986 = fieldWeight in 4566, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4566)
        0.013154183 = weight(_text_:und in 4566) [ClassicSimilarity], result of:
          0.013154183 = score(doc=4566,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 4566, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4566)
        0.0058049103 = product of:
          0.011609821 = sum of:
            0.011609821 = weight(_text_:22 in 4566) [ClassicSimilarity], result of:
              0.011609821 = score(doc=4566,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.1354154 = fieldWeight in 4566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4566)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Der Software-Gigant Microsoft fordert die weltweit dominierende Suchmaschine "Google" heraus. Erste Tester schwanken zwischen Begeisterung und Enttäuschung.
    Content
    "Seit Jahren ist Google der Platzhirsch unter den Suchmaschinen - in Deutschland liegt der Marktanteil bei über 90 Prozent. Alte Konkurrenten wie Altavista oder MetaCrawler, die vor zehn Jahren gefragt waren? Vergessen und/ oder verdrängt. Jetzt macht sich der Software-Riese Microsoft daran, Marktanteile auf dem Suchmaschinen-Markt zu erobern. Was mit Microsoft Live Search bisher nicht gelingen wollte - mit dem neuen Bing soll es was werden. Der erfolgsverwöhnte Riese Microsoft verspricht, dass die Nutzer mit Bing Informationen schneller als bislang finden können. Das soll mit einer besseren Auswahl relevanter Treffer klappen. Aber nach einigen Praxistests bleibt zu resümieren: Bei Bing liegt noch einiges im Argen. Zunächst einmal: Die deutsche Version gibt es zurzeit nur als unfertige "Beta"-Version. Für einen Blick auf den kompletten Bing-Service muss der deutsche Nutzer erst auf die amerikanische Seite umschalten. Das hat einen Nachteil: Der Jugendschutz des deutschen "Bing" wird mit nur einem Klick ausgehebelt. Auf den ersten Blick ähneln sich die Funktionsweisen von Bing und Google wie ein Ei dem anderen. Beide bieten an, das Internet abzusuchen oder gleich speziell nach Bildern, Videos, Landkarten, Neuigkeiten oder Einkaufsmöglichkeiten zu forschen. Daneben zeigen beide Maschinen themenrelevante Werbung an, beide bieten automatisch eine Liste von verwandten Suchbegriffen an. Ein netter Einfall bei "Bing": Sucht man Videoclips; so kann man die kleinen Vorschaubilder mit Ton ans Laufen bringen - einfach die Maus draufziehen. Ansonsten waren bei diver- sen Testsuchen die Ergebnisse extrem unterschiedlich. Oft bietet Bing nicht nur weniger Treffer als Google an, sondern auch mehr irrelevante und schlechter sortierte. Nur in einigen Ausnahmefällen war es andersrum.
    Charmant ist natürlich der Gedanke, dass der Software-Goliath Microsoft beim Angriff auf Google in die David-Rolle schlüpft. Zwei mächtige Riesenkonzerne, die um die Vorherrschaft kämpfen - ist das für den Nutzer ein Vorteil? "Es ist sicher nicht schlecht, dass Microsoft ein bisschen Abwechslung ins Internet bringt", sagt Gerald Reischl. Der Wiener Technik-Journalist, der Google vorwirft, per Suchmaschine, Mail-Programm und Browser Unmengen an Nutzerdaten zu sammeln, sieht keine Gefahr darin, dass auch hinter Bing ein fast übermächtiger Konzern steckt. Denn: Microsoft sei nicht so groß im Online-Geschäft tätig. "Google hingegen", so Reischl, "unterhält mehr als 50 Online-Dienste". Microsoft, glaubt er, kann Erfolg haben, "wenn sie erstens eine gute Suchmaschine anbieten und den Nutzern zweitens glaubhaft versichern können, dass sie keine persön- lichen Daten speichern. Der Schutz der Privatsphäre im Internet wird gerade den deutschen Nutzern immer wichtiger." Allerdings werde Bing weniger Google als der bisherigen Nummer zwei, Yahoo, Kunden abjagen. Übrigens: Dieser Tage ist noch eine Suchmaschine online gegangen: Wolfram Alpha (www.wolframalpha.com) ist auf jeden Fall ebenfalls einen Blick wert, vor allem, wenn es um die Suche nach Daten und Zahlen geht."
    Date
    3. 5.1997 8:44:22
    Footnote
    Herausforderer und Platzhirsch direkt vergleichen: Auf Blackdog.ie stehen die Masken der beiden Konkurrenten direkt nebeneinander, Treffer lassen sich auf einen Blick vergleichen; ein Test lohnt sich: www.blackg.ie/google-bing mit einer Suchmaske zum Vergleich der beiden Suchmaschinen.
  20. Kaltschmidt, H.; Poschmann, A.: Emils neue Suchmethoden (1999) 0.01
    0.0083832545 = product of:
      0.07964092 = sum of:
        0.010630185 = weight(_text_:und in 2016) [ClassicSimilarity], result of:
          0.010630185 = score(doc=2016,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19590102 = fieldWeight in 2016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2016)
        0.069010735 = weight(_text_:leben in 2016) [ClassicSimilarity], result of:
          0.069010735 = score(doc=2016,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.4991426 = fieldWeight in 2016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.0625 = fieldNorm(doc=2016)
      0.10526316 = coord(2/19)
    
    Abstract
    Neue Anbieter von Suchmaschinen treten an, den alteingesessenen Adressen das Leben schwerzumachen. Mit alternativen Ansätzen wollen sie das Web noch raffinierter erschließen. Die etablierten Programme wie Yahoo oder AltaVista reagieren darauf mit neuen Funktionen für professionelle Spezialsuchen. PC-ONLINE zeigt Ihnen, wie Sie jetzt schneller an Informationen und Dateien aus dem Web kommen

Years

Languages

  • d 481
  • e 102
  • f 1
  • nl 1
  • More… Less…

Types

  • a 472
  • m 64
  • el 57
  • x 13
  • s 9
  • p 2
  • r 2
  • More… Less…

Subjects

Classifications