Search (376 results, page 1 of 19)

  • × theme_ss:"Suchmaschinen"
  1. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.06
    0.057991594 = product of:
      0.08698739 = sum of:
        0.0072899396 = product of:
          0.036449697 = sum of:
            0.036449697 = weight(_text_:seite in 4871) [ClassicSimilarity], result of:
              0.036449697 = score(doc=4871,freq=4.0), product of:
                0.20824446 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.037179455 = queryNorm
                0.17503321 = fieldWeight in 4871, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.2 = coord(1/5)
        0.07969745 = sum of:
          0.05945679 = weight(_text_:ermittelt in 4871) [ClassicSimilarity], result of:
            0.05945679 = score(doc=4871,freq=4.0), product of:
              0.26596668 = queryWeight, product of:
                7.1535926 = idf(docFreq=93, maxDocs=44218)
                0.037179455 = queryNorm
              0.22354977 = fieldWeight in 4871, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                7.1535926 = idf(docFreq=93, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
          0.010166056 = weight(_text_:29 in 4871) [ClassicSimilarity], result of:
            0.010166056 = score(doc=4871,freq=2.0), product of:
              0.1307857 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.037179455 = queryNorm
              0.07773064 = fieldWeight in 4871, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
          0.010074606 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
            0.010074606 = score(doc=4871,freq=2.0), product of:
              0.13019612 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037179455 = queryNorm
              0.07738023 = fieldWeight in 4871, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
      0.6666667 = coord(2/3)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    31.12.1996 19:29:41
    22. 1.2006 18:34:49
  2. Perez, E.: dtSearch: the little search engine that could (2004) 0.05
    0.046186935 = product of:
      0.0692804 = sum of:
        0.042170916 = product of:
          0.08434183 = sum of:
            0.08434183 = weight(_text_:28 in 2340) [ClassicSimilarity], result of:
              0.08434183 = score(doc=2340,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.63326067 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.125 = fieldNorm(doc=2340)
          0.5 = coord(1/2)
        0.027109485 = product of:
          0.08132845 = sum of:
            0.08132845 = weight(_text_:29 in 2340) [ClassicSimilarity], result of:
              0.08132845 = score(doc=2340,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.6218451 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2340)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Source
    Online. 29(2005) no.1, S.28-
  3. Finden, ohne zu suchen (2004) 0.04
    0.04499942 = product of:
      0.06749913 = sum of:
        0.018449776 = product of:
          0.03689955 = sum of:
            0.03689955 = weight(_text_:28 in 2979) [ClassicSimilarity], result of:
              0.03689955 = score(doc=2979,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.27705154 = fieldWeight in 2979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2979)
          0.5 = coord(1/2)
        0.049049355 = product of:
          0.14714806 = sum of:
            0.14714806 = weight(_text_:ermittelt in 2979) [ClassicSimilarity], result of:
              0.14714806 = score(doc=2979,freq=2.0), product of:
                0.26596668 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.037179455 = queryNorm
                0.55325747 = fieldWeight in 2979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2979)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    NextLinks schlägt selbst ständig jeweils zehn weitere Webadressen vor, der User muss keinerlei Suchbegriffe eingeben. Möglich wird dies durch die Verwendung von Algorithmen zum Auffinden semantisch ähnlicher Strukturen. Wie bei einer "normalen" Suchmaschine werden zunächst viele Mio. Webseiten ausgewertet. Mittels statistischem Verfahren können daraus Ähnlichkeiten ermittelt und in einer aktuellen Datenbank gespeichert werden. Auf diese Informationsquelle greift NextLinks regelmäßig zurück. Das anonyme Surfverhalten oder persönliche Daten werden dabei nicht gespeichert. Die Software läuft ab Windows 98 und unterstützt alle aktuellen Versionen von Windows-Internet-Explorer, Netscape, Mozilla und Opera. NextLinks ist kostenlos und unter http://wortschatz.unileipziq.de/nextlinks erhältlich.
    Date
    24. 1.2004 9:28:59
  4. tw: Power-Sucher für Power-Surfer : Fireball (1997) 0.04
    0.04041357 = product of:
      0.060620353 = sum of:
        0.03689955 = product of:
          0.0737991 = sum of:
            0.0737991 = weight(_text_:28 in 357) [ClassicSimilarity], result of:
              0.0737991 = score(doc=357,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.5541031 = fieldWeight in 357, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=357)
          0.5 = coord(1/2)
        0.023720799 = product of:
          0.071162395 = sum of:
            0.071162395 = weight(_text_:29 in 357) [ClassicSimilarity], result of:
              0.071162395 = score(doc=357,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.5441145 = fieldWeight in 357, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=357)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    1. 8.1997 14:03:29
    Source
    Com!. 1997, H.8, S.28
  5. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.04
    0.040271312 = product of:
      0.060406968 = sum of:
        0.03689955 = product of:
          0.0737991 = sum of:
            0.0737991 = weight(_text_:28 in 3175) [ClassicSimilarity], result of:
              0.0737991 = score(doc=3175,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.5541031 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
        0.023507414 = product of:
          0.07052224 = sum of:
            0.07052224 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.07052224 = score(doc=3175,freq=2.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  6. Höfer, W.: Detektive im Web (1999) 0.04
    0.04008232 = product of:
      0.060123477 = sum of:
        0.031628184 = product of:
          0.06325637 = sum of:
            0.06325637 = weight(_text_:28 in 4007) [ClassicSimilarity], result of:
              0.06325637 = score(doc=4007,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.4749455 = fieldWeight in 4007, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
        0.028495293 = product of:
          0.085485876 = sum of:
            0.085485876 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.085485876 = score(doc=4007,freq=4.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    22. 8.1999 20:22:06
    Source
    Internet Professionell. 1999, H.9, S.28-36
  7. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.03
    0.032385144 = sum of:
      0.01728961 = product of:
        0.08644805 = sum of:
          0.08644805 = weight(_text_:seite in 851) [ClassicSimilarity], result of:
            0.08644805 = score(doc=851,freq=10.0), product of:
              0.20824446 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.037179455 = queryNorm
              0.41512772 = fieldWeight in 851, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=851)
        0.2 = coord(1/5)
      0.007907046 = product of:
        0.015814092 = sum of:
          0.015814092 = weight(_text_:28 in 851) [ClassicSimilarity], result of:
            0.015814092 = score(doc=851,freq=2.0), product of:
              0.1331866 = queryWeight, product of:
                3.5822632 = idf(docFreq=3342, maxDocs=44218)
                0.037179455 = queryNorm
              0.11873637 = fieldWeight in 851, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5822632 = idf(docFreq=3342, maxDocs=44218)
                0.0234375 = fieldNorm(doc=851)
        0.5 = coord(1/2)
      0.007188488 = product of:
        0.021565463 = sum of:
          0.021565463 = weight(_text_:29 in 851) [ClassicSimilarity], result of:
            0.021565463 = score(doc=851,freq=4.0), product of:
              0.1307857 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.037179455 = queryNorm
              0.1648916 = fieldWeight in 851, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0234375 = fieldNorm(doc=851)
        0.33333334 = coord(1/3)
    
    Content
    Spektrum der Wissenschaft: Frau Henzinger, wie viele Seiten des World Wide Web erschließt Google heute? Monika Henzinger: Wir haben über zwei Milliarden Webseiten in unserer Datenbank. Hinzu kommen 700 Millionen Newsgroup-Beiträge, die weit in die Vergangenheit reichen, und 300 Millionen Bilder. - Spektrum: Und diese Inhalte haben Sie komplett gespeichert? - Henzinger: In komprimierter Form, ja. Spektrum: Ist das nicht schon das gesamte Web? - Henzinger: Bei weitem nicht! Eigentlich ist das Web unendlich. Es gibt Datenbanken, die beliebig viele Webseiten auf Anfrage erzeugen können. Natürlich macht es keinen Sinn, die alle in der Suchmaschine zu haben. Wir beschränken uns auf Seiten hoher Qualität. - Spektrum: Wie wählen Sie die aus? - Henzinger: Nach dem so genannten PageRank. Das ist eine Note, die wir jeder Seite geben, unabhängig von irgendeiner Anfrage, für die diese Seite relevant sein könnte. Und zwar ist die Qualität einer Seite - oder anders gesagt: die Hochachtung, die sie innerhalb des Web genießt - umso größer, je mehr andere Seiten auf sie verweisen und je höher die Qualität der verweisenden Seite ist. Der PageRank bestimmt auch wesentlich die Reihenfolge, in der Google dem Anfrager die Ergebnisse präsentiert. - Spektrum: Ist der PageRank manipulierbar, etwa durch ein Zitierkartell? - Henzinger: Es wird zumindest immer wieder versucht. Zum Beispiel ist "Britney Spears" ein sehr häufiger Suchbegriff. Deswegen versuchen viele, ihren PageRank hochzutreiben, um unter den Antworten auf "Britney Spears" auf den vordersten Plätzen zu landen, auch wenn sie bloß Turnschuhe verkaufen. - Spektrum: Und was tun Sie dagegen? - Henzinger: Wenn wir offensichtlichen Missbrauch sehen, nehmen wir die entsprechenden Seiten gezielt heraus - im Interesse unserer Benutzer, für die wir die Qualität wahren wollen. - Spektrum: Gibt es auch andere Maßnahmen als diese Einzelkorrekturen? - Henzinger: Ja. Aber die diskutieren wir nicht öffentlich, um den "Rüstungswettlauf" nicht anzuheizen. - Spektrum: Seit wann gibt es Google? - Henzinger: Die Firma existiert seit dreieinhalb Jahren. Seit reichlich zwei Jahren sind wir auf dem Markt. Die Kunde von uns hat sich durch Mundpropaganda verbreitet, und inzwischen kommt die Hälfte der Anfragen von außerhalb der USA, zwölf Prozent allein aus dem deutschsprachigen Raum. Wir beantworten über 150 Millionen Anfragen am Tag, und zwar direkt oder über unsere Partner. Wenn zum Beispiel die Suchmaschine Yahoo ein Stichwort nicht im eigenen Verzeichnis findet, reicht sie die Anfrage an uns weiter und gibt dem Benutzer unsere Antwort. - Spektrum: Mit welcher Hardware läuft das System? - Henzinger: Mit über zehntausend PCs, verteilt auf vier Datenzentren. Betriebssystem ist Linux. - Spektrum: Wie prüfen Sie, ob die aufgeftihrten Webseiten noch existieren? - Henzinger: Besonders ereignisreiche Webseiten besuchen wir täglich. Alle 28 Tage aktualisieren wir den Index - das ist die Liste, die zu jedem Wort die Seiten aufführt, auf denen es vorkommt. - Spektrum: Wie aufwendig ist dieses Indizieren? - Henzinger: Sehr aufwendig. Etwa eine Woche. - Spektrum: Wie viele Leute hat die Firma? - Henzinger: Ungefähr 300. Bisher haben wir unsere Belegschaft in jedem Jahr ungefähr verdoppelt. -
    Spektrum: Wie finanziert sich Google? - Henzinger: Überwiegend durch gewöhnliche Reklame: einzeilige Anzeigen, die nur aus durchlaufendem Text bestehen. Diese Werbung erscheint nur auf solche Fragewörter, die mit dem Produkt in Verbindung stehen, wir nennen das "keyword targeting". Auch kann jeder online eine Anzeige kaufen. Wenn Sie Ihrer Frau über Google zum Geburtstag gratulieren wollen, können Sie eine Anzeige schalten, die nur auf deren Namen hin erscheint. Zweitens durch Search Services. Zum Beispiel bezahlt uns Yahoo dafür, dass unsere Ergebnisse auf deren Seite erscheinen. Manche Firmen wollen auf ihrer Webseite eine Suchfunktion einrichten, aber nicht selbst programmieren. Für diese Unternehmen bauen wir dann einen eigenen Index und beantworten damit die Suchanfragen, die an sie gestellt werden. Schließlich verkaufen wir neuerdings unsere Produkte zur firmeninternen Nutzung in Intranets. Mit diesem Konzept sind wir eine der wenigen neuen Internet-Firmen, die ihr Geld verdienen. - Spektrum: Gibt es neue Projekte? - Henzinger: Zum Beispiel Spracheingabe. Der Benutzer spricht seine Frage in ein Mikrofon und bekommt die Antworten auf den Bildschirm, später vielleicht auch gesprochen. Oder unser News Search. Unsere Maschinen lesen Tageszeitungen und stellen Artikel zum gleichen Thema aus verschiedenen Ländern zusammen. Das ist interessant, weil die Berichterstattung zumeist national gefärbt ist. Ein regelmäßiger Vergleich kann den Horizont erweitern. Klicken Sie unter google.com auf "News and Resources" und dann "Check out the Google news search". Oder User Interfaces. Wie bringt man den Benutzer dazu, mehr als zwei Wörter einzutippen? Je mehr Wörter er ansagt, desto besser können wir ihn bedienen.
    Date
    31.12.1996 19:29:41
    2. 8.2002 14:39:29
  8. Pothe, A.: Nachgezählt : Wie groß ist das WWW? (2004) 0.03
    0.03058989 = product of:
      0.045884833 = sum of:
        0.017856633 = product of:
          0.08928316 = sum of:
            0.08928316 = weight(_text_:seite in 3036) [ClassicSimilarity], result of:
              0.08928316 = score(doc=3036,freq=6.0), product of:
                0.20824446 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.037179455 = queryNorm
                0.42874208 = fieldWeight in 3036, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3036)
          0.2 = coord(1/5)
        0.028028201 = product of:
          0.0840846 = sum of:
            0.0840846 = weight(_text_:ermittelt in 3036) [ClassicSimilarity], result of:
              0.0840846 = score(doc=3036,freq=2.0), product of:
                0.26596668 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.037179455 = queryNorm
                0.31614712 = fieldWeight in 3036, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3036)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Mehr als 8 Milliarden Webseiten hat Google in seinem Index stehen - doch längst nicht jede Webseite wird von den Robots der Suchmaschinen besucht. Eine Studie für den Bereich der.de-Domains ermittelt, wie viele Seiten von keiner Suchmaschine gefunden werden.
    Content
    "Die verflixten dynamischen Seiten Viele Server erzeugen Seiten erst in dem Moment, in dem sie der Nutzer anfordert. Dabei greifen sie für die Inhalte auf Datenbanken zurück. Die dafür notwendigen Parameter werden bei der Anforderung der Seiten mit übermittelt. Für die Anforderung von WebSeiten kennt das HTTP-Protokoll zwei unterschiedliche Methoden - "GET" und "POST". Mit GET angeforderte dynamische Seiten erkennt man in der Regel leicht an den Parametern, die an die URL gehängt werden. Beispielsweise übergibt der Aufruf http://www.google.com/search?q=Beispiel an Google eine Suchanfrage (Parameter "q") nach dem Wort "Beispiel". Die Parameter sind durch ein Fragezeichen vom Seitennamen getrennt. Webserver können die Parameter aber auch verstecken, also ohne das Fragezeichen in der Adresse auswerten. Bei der Suchmaschine Fireball zum Beispiel zeigt die Seite http://suche.fireball.de/text/test/ dieselben Ergebnisse an wie die Seite http://suche.fireball.de/cgi-bin/pursuit?T query=test&cat=fbt loc&SITE=de Dynamische Seiten mit POSTParametern lassen sich nur schwer erkennen. Hier werden Daten nämlich nicht über die URL übergeben, sondern vom Browser in den Body der HTTPAnfrage geschrieben, wo sie für den Anwender üblicherweise nicht einsehbar sind. Aus diesem Grund lassen sich dynamische Seiten mit POST-Parametern auch nicht verlinken, da die POST-Parameter in einem normalen Link nicht mit übertragen werden. Die POST-Methode ermöglicht die Übertragung von größeren Datenmengen als GET. Da die Parameter nicht in der History stehen, bietet POST eine gewisse Sicherheit bei der Übertragung von heiklen Daten wie Kreditkartennummern. Dynamische Seiten machen das WWW unendlich groß. Das zeigt sich schon bei den Suchmaschinen, in deren Suchformulare beliebige Begriffe eingegeben werden können. Bei jedem neuen Begriff, bei der kleinsten Änderung der Suchdaten gibt die Suchmaschine eine andere Seite aus. Um genau diejenigen Seiten zu erfassen, die auch Suchrnaschinen indexieren können, bedarf es eines Kompromisses: Dynamische Seiten wurden nur gezählt, wenn sie nicht voraussetzen, dass für ihren Abruf ein Textfeld ausgefüllt wird. Sobald Seitengenerierungen aus Textfeldern unberücksichtigt bleiben, wird nur noch eine endliche Menge an Seiten untersucht. Seiten mit (sichtbaren wie unsichtbaren) GET-Parametern in der URL können Suchmaschinen dagegen indexieren. Bei der Untersuchung wurden dynamische Seiten mit sichtbaren Parametern ebenfalls nicht erfasst, sondern durch den Korrekturfaktor mit berücksichtigt."
  9. Neubauer, R.: Meine Glotze, deine Glotze : Google sichert sich die Internet-Videoplattform You Tube für 1,65 Milliarden Dollar / 72 Millionen Nutzer lassen die Werbeeinnahmen explodieren (2006) 0.03
    0.027912483 = sum of:
      0.0127573935 = product of:
        0.06378697 = sum of:
          0.06378697 = weight(_text_:seite in 6057) [ClassicSimilarity], result of:
            0.06378697 = score(doc=6057,freq=4.0), product of:
              0.20824446 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.037179455 = queryNorm
              0.30630812 = fieldWeight in 6057, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6057)
        0.2 = coord(1/5)
      0.009224888 = product of:
        0.018449776 = sum of:
          0.018449776 = weight(_text_:28 in 6057) [ClassicSimilarity], result of:
            0.018449776 = score(doc=6057,freq=2.0), product of:
              0.1331866 = queryWeight, product of:
                3.5822632 = idf(docFreq=3342, maxDocs=44218)
                0.037179455 = queryNorm
              0.13852577 = fieldWeight in 6057, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5822632 = idf(docFreq=3342, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6057)
        0.5 = coord(1/2)
      0.0059301998 = product of:
        0.017790599 = sum of:
          0.017790599 = weight(_text_:29 in 6057) [ClassicSimilarity], result of:
            0.017790599 = score(doc=6057,freq=2.0), product of:
              0.1307857 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.037179455 = queryNorm
              0.13602862 = fieldWeight in 6057, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6057)
        0.33333334 = coord(1/3)
    
    Abstract
    "Xchylerjfk" mag You Tube. Die junge Frau, die hinter diesem verqueren Internet-Namen steckt, mag die Website für Amateurvideos "so, wie sie ist". Und so sehr, dass sie nun ganz aufgeregt ein Kurzvideo für You Tube gedreht hat und darin schimpft: "Sie wollen die Welt beherrschen." Gemeint ist Google, der neue Eigentümer von You Tube. Denn die Internet-Suchmaschine Google übernimmt für 1,65 Milliarden Dollar You Tube (übersetzt etwa: deine Glotze), eine Website, die in weniger als zwei Jahren von einer Idee, ausgeheckt beim Abendessen, zum kulturellen Massenphänomen aufstieg. "Wir wollten unabhängig bleiben", begründete der 29 Jahre alte You-Tube-Chef Chad Hurley in der Nacht zum Dienstag gegenüber der Agentur Reuters, warum er und sein Mitbegründer Steve Chen (27) Google den Zuschlag gaben. Google habe Selbstständigkeit versprochen und sein technisches Wissen könne You Tube dem Ziel näher bringen, die unterhaltsamste Video-Seite im Internet zu sein. "Jetzt haben wir mit Google die Ressourcen hinter uns, um diese Vision zu verwirklichen`; sagte Hurley. Hurley verriet nicht, wie viel Geld er und Chen bei der Übernahme einstreichen. Ein dritter Mitbegründer - Jawed Karim - hatte You Tube verlassen, kurz bevor das Jungunternehmen erstmals 3,5 Millionen Dollar Startkapital von Sequoia Capital ergatterte - diese Firma hatte auch Google in der Start-phase mit Kapital versorgt. Laut Wall Street Journal besitzt Sequoia Capital knapp ein Drittel von You Tube. Der Kauf ist die teuerste Neuerwerbung in der achtjährigen Firmengeschichte und sichert Google die führende Rolle im wachsenden Online-Markt für Videos. Schräge Videoclips boomen ebenso im Internet wie so genannte Social Networks, etwa die Kennenlern-Plattform My Space. Etablierte Medien und Internetfirmen wollen ein Stück vom Kuchen.
    Goldgräber-Stimmung Erst im August hatte Google und My Space einen Deal für 900 Millionen Dollar abgeschlossen, der Google erlaubt, auf der Community Website Werbung zu verkaufen. Als Interessenten für You Tube waren Gerüchten zufolge auch Internetgiganten wie Yahoo und Ebay im Gespräch. Ausgelöst hat die jüngste Goldgräber-Stimmung Robert Murdoch, dessen News corporation im vergangenen Jahr My Space für 580 Millionen Dollar erstand - in bar. Was damals eine ungeheure Summe erschien, sieht nach dem Deal mit Google wie ein Schnäppchen aus. Analysten schätzen den Wert von My Space bereits auf zwei Milliarden Dollar. Gründe für den Kauf gibt es genug. Da sind zum einen die "Eyeballs", die Zahl der Nutzer von You Tube: 72 Millionen monatlich. Auch wollte Google angeblich nicht den gleichen Fehler wie vergangenes Jahr machen, als es sich My Space entgehen ließ. Drittens ist die YouTube-Gemeinde nach Untersuchungen aktiver, enthusiastischer, kommentar- und austauschfreudiger als die User bei der Google-Konkurrenz. Hinzu kommt "stickiness". You-Tube-Fans verweilen länger auf der Seite als in vergleichbaren Fällen. Ein wichtiger Aspekt für Werbedollars, mit denen Google sein Geschäft macht. Es ist eine einfache Rechnung: Dieses Jahr werden in den USA schätzungsweise 16 Milliarden Dollar in die Internet-Werbung fließen, 28 Prozent mehr als 2005. Dennoch gibt es Kritiker. Probleme könnten die Urheberrechte machen, denn viele You-Tube-Nutzer laden Ausschnitte aus Fernsehsendungen, Musikvideos und Filmen hoch, die geschützt sind. Erst Stunden, vor Bekanntgabe der Übernahme gaben Google und You Tube eine Reihe von Vertriebsverträgen mit Warner Musik, Sony BMG und Universal bekannt.
  10. Sauer, D.: Alles schneller finden (2001) 0.03
    0.027168427 = product of:
      0.081505276 = sum of:
        0.081505276 = product of:
          0.12225791 = sum of:
            0.07188488 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.07188488 = score(doc=6835,freq=4.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.050373033 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.050373033 = score(doc=6835,freq=2.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  11. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.03
    0.025122609 = product of:
      0.03768391 = sum of:
        0.021869818 = product of:
          0.10934909 = sum of:
            0.10934909 = weight(_text_:seite in 5771) [ClassicSimilarity], result of:
              0.10934909 = score(doc=5771,freq=4.0), product of:
                0.20824446 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.037179455 = queryNorm
                0.52509964 = fieldWeight in 5771, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5771)
          0.2 = coord(1/5)
        0.015814092 = product of:
          0.031628184 = sum of:
            0.031628184 = weight(_text_:28 in 5771) [ClassicSimilarity], result of:
              0.031628184 = score(doc=5771,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.23747274 = fieldWeight in 5771, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5771)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
    Date
    28. 4.2001 14:47:21
  12. Kiefer, A.: ¬Die Googlewhacker (2002) 0.03
    0.025020188 = product of:
      0.03753028 = sum of:
        0.010542729 = product of:
          0.021085458 = sum of:
            0.021085458 = weight(_text_:28 in 262) [ClassicSimilarity], result of:
              0.021085458 = score(doc=262,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.15831517 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
          0.5 = coord(1/2)
        0.02698755 = product of:
          0.040481325 = sum of:
            0.020332113 = weight(_text_:29 in 262) [ClassicSimilarity], result of:
              0.020332113 = score(doc=262,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.15546128 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
            0.020149212 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.020149212 = score(doc=262,freq=2.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.15476047 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Date
    20. 3.2002 10:28:22
    Source
    Frankfurter Rundschau. Nr.66 vom 19.3.2002, S.29
  13. Schneider, N.: ¬Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers (2007) 0.02
    0.023481943 = product of:
      0.035222914 = sum of:
        0.018449776 = product of:
          0.03689955 = sum of:
            0.03689955 = weight(_text_:28 in 371) [ClassicSimilarity], result of:
              0.03689955 = score(doc=371,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.27705154 = fieldWeight in 371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=371)
          0.5 = coord(1/2)
        0.016773138 = product of:
          0.050319415 = sum of:
            0.050319415 = weight(_text_:29 in 371) [ClassicSimilarity], result of:
              0.050319415 = score(doc=371,freq=4.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.38474706 = fieldWeight in 371, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=371)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    13. 5.2007 10:29:29
    5. 6.2007 11:28:03
  14. Dasgupta, S.K.: Search engines : tooles for exploring the Internet (1998) 0.02
    0.023093468 = product of:
      0.0346402 = sum of:
        0.021085458 = product of:
          0.042170916 = sum of:
            0.042170916 = weight(_text_:28 in 3524) [ClassicSimilarity], result of:
              0.042170916 = score(doc=3524,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.31663033 = fieldWeight in 3524, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3524)
          0.5 = coord(1/2)
        0.013554743 = product of:
          0.040664226 = sum of:
            0.040664226 = weight(_text_:29 in 3524) [ClassicSimilarity], result of:
              0.040664226 = score(doc=3524,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.31092256 = fieldWeight in 3524, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3524)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    8. 5.1999 19:28:29
  15. Haring, M.; Rudaev, A.; Lewandowski, D.: Google & Co. : wie die "Search Studies" an der HAW Hamburg unserem Nutzungsverhalten auf den Zahn fühlen: Blickpunkt angewandte Forschung (2022) 0.02
    0.023093468 = product of:
      0.0346402 = sum of:
        0.021085458 = product of:
          0.042170916 = sum of:
            0.042170916 = weight(_text_:28 in 630) [ClassicSimilarity], result of:
              0.042170916 = score(doc=630,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.31663033 = fieldWeight in 630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
          0.5 = coord(1/2)
        0.013554743 = product of:
          0.040664226 = sum of:
            0.040664226 = weight(_text_:29 in 630) [ClassicSimilarity], result of:
              0.040664226 = score(doc=630,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.31092256 = fieldWeight in 630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    28. 1.2022 11:05:29
  16. Altmann, O.; Pöhl, S.: Information Retrieval im Internet : bekannte Suchdienste und ihre Eigenschaften (1997) 0.02
    0.023012176 = product of:
      0.034518264 = sum of:
        0.021085458 = product of:
          0.042170916 = sum of:
            0.042170916 = weight(_text_:28 in 205) [ClassicSimilarity], result of:
              0.042170916 = score(doc=205,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.31663033 = fieldWeight in 205, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=205)
          0.5 = coord(1/2)
        0.013432808 = product of:
          0.040298425 = sum of:
            0.040298425 = weight(_text_:22 in 205) [ClassicSimilarity], result of:
              0.040298425 = score(doc=205,freq=2.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.30952093 = fieldWeight in 205, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=205)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    28. 7.1997 19:07:50
    Pages
    S.18-22
  17. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.02
    0.022489628 = product of:
      0.06746888 = sum of:
        0.06746888 = product of:
          0.10120332 = sum of:
            0.050830286 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.050830286 = score(doc=6566,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.050373033 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.050373033 = score(doc=6566,freq=2.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.1997 19:50:29
  18. Zins, C.: Models for classifying Internet resources (2002) 0.02
    0.021687042 = product of:
      0.03253056 = sum of:
        0.022364505 = product of:
          0.04472901 = sum of:
            0.04472901 = weight(_text_:28 in 1160) [ClassicSimilarity], result of:
              0.04472901 = score(doc=1160,freq=4.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.3358372 = fieldWeight in 1160, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1160)
          0.5 = coord(1/2)
        0.010166056 = product of:
          0.03049817 = sum of:
            0.03049817 = weight(_text_:29 in 1160) [ClassicSimilarity], result of:
              0.03049817 = score(doc=1160,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.23319192 = fieldWeight in 1160, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1160)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) no.1, S.20-28
  19. ¬Der Erfolg von Google (2003) 0.02
    0.021353643 = product of:
      0.032030463 = sum of:
        0.025253091 = product of:
          0.12626545 = sum of:
            0.12626545 = weight(_text_:seite in 1407) [ClassicSimilarity], result of:
              0.12626545 = score(doc=1407,freq=12.0), product of:
                0.20824446 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.037179455 = queryNorm
                0.60633284 = fieldWeight in 1407, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.2 = coord(1/5)
        0.0067773713 = product of:
          0.020332113 = sum of:
            0.020332113 = weight(_text_:29 in 1407) [ClassicSimilarity], result of:
              0.020332113 = score(doc=1407,freq=2.0), product of:
                0.1307857 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037179455 = queryNorm
                0.15546128 = fieldWeight in 1407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Zwei Stanford-Doktoranden, Larry Page und Sergey Brin, gründeten 1998 Google. Das Unternehmen, das sich in Privatbesitz befindet, gab 1999 bekannt, dass es Eigenkapitalinvestitionen in Höhe von 25 Millionen US$ sicherstellen konnte. Unter den Investoren sind Kleiner Perkins Caufeld & Byers und Sequoia Capital. Google betreibt seinen Dienst auf seiner eigenen, öffentlich zugänglichen Website, www.google.com. Die Firma bietet außerdem unter gemeinsamen Markennamen Informationsdienstleistern Suchlösungen für das Web an. - Die Google-Technologie - Mit einer innovativen Suchtechnik und einer eleganten Benutzeroberfläche setzt sich Google von den Suchmaschinen der ersten Generation ab. Statt nur eine Stichwort- oder Meta-Suchtechnologie zu verwenden, basiert Google auf der zum Patent angemeldeten PageRankTM-Technologie, bei der die wichtigsten Ergebnisse immer zuerst gelistet werden. PageRank unternimmt eine objektive Bewertung der Wichtigkeit von Webseiten, bei der 500 Millionen Variablen und mehr als 2 Milliorden Begriffe verglichen werden. Dabei nutzt PageRank die riesige Link-Struktur des World-Wide-Web als Organisationsmittel. Der Kern der Methode ist dabei, dass Google einen Link von Seite A zu Seite B als ein "Votum" von Seite Afür Seite B interpretiert. Google schätzt die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Googles komplexe, automatische Suchmethoden schließen einen menschlichen Eingriff aus. Im Gegensatzzu anderen Suchmaschinen kannvon Google keine höhere Listung oder eine kommerzielle Veränderung der Ergebnisse gekauft werden. Eine Google-Suche ist ein einfacher, ehrlicher und objektiver Weg, qualitativ hochwertige Websites zu finden."
    Date
    29. 1.1997 18:49:05
  20. Bertelmann, R.; Rusch-Feja, D.: Informationsretrieval im Internet : Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote (1997) 0.02
    0.020135656 = product of:
      0.030203484 = sum of:
        0.018449776 = product of:
          0.03689955 = sum of:
            0.03689955 = weight(_text_:28 in 217) [ClassicSimilarity], result of:
              0.03689955 = score(doc=217,freq=2.0), product of:
                0.1331866 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.037179455 = queryNorm
                0.27705154 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=217)
          0.5 = coord(1/2)
        0.011753707 = product of:
          0.03526112 = sum of:
            0.03526112 = weight(_text_:22 in 217) [ClassicSimilarity], result of:
              0.03526112 = score(doc=217,freq=2.0), product of:
                0.13019612 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037179455 = queryNorm
                0.2708308 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=217)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    28. 7.1997 19:07:50
    9. 7.2000 11:31:22

Years

Languages

  • d 224
  • e 148
  • f 2
  • nl 1
  • More… Less…

Types

  • a 331
  • m 25
  • el 24
  • s 4
  • x 4
  • p 2
  • r 1
  • More… Less…

Subjects