Search (704 results, page 1 of 36)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.57
    0.5693066 = product of:
      0.8539599 = sum of:
        0.046703033 = product of:
          0.14010909 = sum of:
            0.14010909 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.14010909 = score(doc=2514,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.19814417 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19814417 = score(doc=2514,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.014680246 = product of:
          0.029360492 = sum of:
            0.029360492 = weight(_text_:web in 2514) [ClassicSimilarity], result of:
              0.029360492 = score(doc=2514,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3059541 = fieldWeight in 2514, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.5 = coord(1/2)
        0.19814417 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19814417 = score(doc=2514,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.19814417 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19814417 = score(doc=2514,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.19814417 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19814417 = score(doc=2514,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.6666667 = coord(6/9)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
    Source
    WWW '02: Proceedings of the 11th International Conference on World Wide Web, May 7-11, 2002, Honolulu, Hawaii, USA
  2. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.14
    0.1397598 = product of:
      0.41927937 = sum of:
        0.1280057 = sum of:
          0.041522004 = weight(_text_:web in 1705) [ClassicSimilarity], result of:
            0.041522004 = score(doc=1705,freq=8.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.43268442 = fieldWeight in 1705, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.046875 = fieldNorm(doc=1705)
          0.086483695 = weight(_text_:seite in 1705) [ClassicSimilarity], result of:
            0.086483695 = score(doc=1705,freq=4.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.52509964 = fieldWeight in 1705, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.046875 = fieldNorm(doc=1705)
        0.236271 = weight(_text_:benutzerfreundlichkeit in 1705) [ClassicSimilarity], result of:
          0.236271 = score(doc=1705,freq=8.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            1.0321369 = fieldWeight in 1705, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.046875 = fieldNorm(doc=1705)
        0.055002663 = product of:
          0.11000533 = sum of:
            0.11000533 = weight(_text_:bewertung in 1705) [ClassicSimilarity], result of:
              0.11000533 = score(doc=1705,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5922178 = fieldWeight in 1705, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1705)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    RSWK
    Suchmaschine / Web-Seite / Qualitätsmanagement / Benutzerfreundlichkeit / Bewertung
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
    Subject
    Suchmaschine / Web-Seite / Qualitätsmanagement / Benutzerfreundlichkeit / Bewertung
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
  3. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.04
    0.03585235 = product of:
      0.16133557 = sum of:
        0.12244281 = sum of:
          0.035959117 = weight(_text_:web in 5771) [ClassicSimilarity], result of:
            0.035959117 = score(doc=5771,freq=6.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.37471575 = fieldWeight in 5771, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.046875 = fieldNorm(doc=5771)
          0.086483695 = weight(_text_:seite in 5771) [ClassicSimilarity], result of:
            0.086483695 = score(doc=5771,freq=4.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.52509964 = fieldWeight in 5771, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.046875 = fieldNorm(doc=5771)
        0.038892757 = product of:
          0.077785514 = sum of:
            0.077785514 = weight(_text_:bewertung in 5771) [ClassicSimilarity], result of:
              0.077785514 = score(doc=5771,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.41876122 = fieldWeight in 5771, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5771)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  4. ¬Der Erfolg von Google (2003) 0.03
    0.03410502 = product of:
      0.1534726 = sum of:
        0.1275441 = sum of:
          0.027681338 = weight(_text_:web in 1407) [ClassicSimilarity], result of:
            0.027681338 = score(doc=1407,freq=8.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.2884563 = fieldWeight in 1407, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=1407)
          0.09986277 = weight(_text_:seite in 1407) [ClassicSimilarity], result of:
            0.09986277 = score(doc=1407,freq=12.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.60633284 = fieldWeight in 1407, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=1407)
        0.025928505 = product of:
          0.05185701 = sum of:
            0.05185701 = weight(_text_:bewertung in 1407) [ClassicSimilarity], result of:
              0.05185701 = score(doc=1407,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.27917415 = fieldWeight in 1407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Google ist die weltweit größte Suchmaschine und bietet die schnellste und einfachste Informationssuche im Web an. Googles Aufgabe ist die Bereitstellung des besten Suchdienstes im Internet, um die weltweiten Informationen allgemein erreichbar und nutzbar zu machen. Google erreicht über 2 Mrd. Web-Seiten und liefert in meist weniger als einer halben Sekunde relevante Suchergebnisse an Benutzer in aller Welt. Im Augenblick beantwortet Google mehr als 100 Millionen Anfragen pro Tag.
    Content
    "Zwei Stanford-Doktoranden, Larry Page und Sergey Brin, gründeten 1998 Google. Das Unternehmen, das sich in Privatbesitz befindet, gab 1999 bekannt, dass es Eigenkapitalinvestitionen in Höhe von 25 Millionen US$ sicherstellen konnte. Unter den Investoren sind Kleiner Perkins Caufeld & Byers und Sequoia Capital. Google betreibt seinen Dienst auf seiner eigenen, öffentlich zugänglichen Website, www.google.com. Die Firma bietet außerdem unter gemeinsamen Markennamen Informationsdienstleistern Suchlösungen für das Web an. - Die Google-Technologie - Mit einer innovativen Suchtechnik und einer eleganten Benutzeroberfläche setzt sich Google von den Suchmaschinen der ersten Generation ab. Statt nur eine Stichwort- oder Meta-Suchtechnologie zu verwenden, basiert Google auf der zum Patent angemeldeten PageRankTM-Technologie, bei der die wichtigsten Ergebnisse immer zuerst gelistet werden. PageRank unternimmt eine objektive Bewertung der Wichtigkeit von Webseiten, bei der 500 Millionen Variablen und mehr als 2 Milliorden Begriffe verglichen werden. Dabei nutzt PageRank die riesige Link-Struktur des World-Wide-Web als Organisationsmittel. Der Kern der Methode ist dabei, dass Google einen Link von Seite A zu Seite B als ein "Votum" von Seite Afür Seite B interpretiert. Google schätzt die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Googles komplexe, automatische Suchmethoden schließen einen menschlichen Eingriff aus. Im Gegensatzzu anderen Suchmaschinen kannvon Google keine höhere Listung oder eine kommerzielle Veränderung der Ergebnisse gekauft werden. Eine Google-Suche ist ein einfacher, ehrlicher und objektiver Weg, qualitativ hochwertige Websites zu finden."
  5. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.03
    0.030775176 = product of:
      0.1384883 = sum of:
        0.0715337 = sum of:
          0.010380501 = weight(_text_:web in 2430) [ClassicSimilarity], result of:
            0.010380501 = score(doc=2430,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.108171105 = fieldWeight in 2430, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
          0.061153203 = weight(_text_:seite in 2430) [ClassicSimilarity], result of:
            0.061153203 = score(doc=2430,freq=8.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.3713015 = fieldWeight in 2430, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
        0.0669546 = sum of:
          0.055002663 = weight(_text_:bewertung in 2430) [ClassicSimilarity], result of:
            0.055002663 = score(doc=2430,freq=4.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.2961089 = fieldWeight in 2430, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
          0.011951938 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
            0.011951938 = score(doc=2430,freq=2.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.116070345 = fieldWeight in 2430, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
      0.22222222 = coord(2/9)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    - Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."
    Date
    22. 7.2004 9:40:10
  6. Puschwadt, O.: Wer suchet, der findet : Suchmaschinen - Es müssen nicht immer nur Google und Yahoo sein (2005) 0.02
    0.023699261 = product of:
      0.10664667 = sum of:
        0.09537827 = sum of:
          0.013840669 = weight(_text_:web in 3731) [ClassicSimilarity], result of:
            0.013840669 = score(doc=3731,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.14422815 = fieldWeight in 3731, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=3731)
          0.081537604 = weight(_text_:seite in 3731) [ClassicSimilarity], result of:
            0.081537604 = score(doc=3731,freq=8.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.49506867 = fieldWeight in 3731, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=3731)
        0.011268396 = product of:
          0.022536792 = sum of:
            0.022536792 = weight(_text_:22 in 3731) [ClassicSimilarity], result of:
              0.022536792 = score(doc=3731,freq=4.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.21886435 = fieldWeight in 3731, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3731)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Nobody is perfect - diese Weisheit trifft auch auf Suchmaschinen zu. Google, Yahoo und Co. finden zwar viel, aber nicht alles. Insbesondere bei Spezialthemen ist es ratsam, eine Meta-Suchmaschine wie Metacrawler (www.metacrawler.de), MetaGer (meta.rrzn.uni-hannover.de) oder Ixquick (www.eu.ixquick.com) zu Rate zu ziehen. Sie fragen gleichzeitig mehrere Suchmaschinen ab. Bei Metacrawler sind dies beispielsweise 22 internationale und 15 nationale Suchdienste. Ixquick durchstöbert gleichzeitig mindestens zehn der populärsten Suchmaschinen und dies in 17 Sprachen. Dadurch verbessert sich die Trefferquote natürlich erheblich. Eine weitere gute Möglichkeit, die spezielle Suche im Internet spürbar zu erleichtern, ist die Benutzung eines Webkataloges. Zu empfehlen sind Excite (www.excite.de), das Suchlexikon (www.suchlexikon.de) oder auch das englischsprachige Angebot iTools (www.itools.com). Diese Webkataloge können als "Verzeichnisse von Suchmaschinen" bezeichnet werden. Sie bündeln verschiedene Suchmaschinen zu bestimmten Themengebieten wie Wirtschaft, Freizeit, Computer oder Sport. Keine Suchmaschine im eigentlichen Sinne, aber dennoch sehr nützlich, um an Informationen oder auch Ratschläge im Netz zu kommen, ist Wikipedia (de.wikipedia.org). Das Internet-Lexikon hat sich den Beinamen "die freie Enzyklopädie" gegeben und dient als Sammelpunkt für Informationen und Wissen der User. Dies ist allerdings auch die Schwäche der Seite, denn um eine hundertprozentig verlässliche Antwort zu bekommen, sind die Angaben oft zu ungenau. Eine interessante Variante ist die News-Suchmaschine Paperball (www.paperball.de). Hierbei werden die Online-Ausgaben deutscher und internationaler, Tagesund Wochenzeitungen durchforstet. Man kann die Suche auch auf bestimmte Rubriken beschränken. Auf der Suche nach ehemaligen Mitschülern? Dann sind Sie bei StayFriends (www.stayfriends.de) genau richtig. Nach einer kostenlosen Anmeldung kann man nach verloren gegangenen Freunden aus der Schulzeit fahnden. Fast 1,8 Millionen Einträge sollen laut Anbieter bereits auf der Seite eingegangen sein. Der Nachteil: Wer sich nicht eingetragen hat, wird auch nicht gefunden. Wer gezielt nach Bildern sucht, wird bei Bomis (www.bomis.com) fündig. Hierbei werden nur Seiten durchstöbert, auf denen sich Bilder zu bestimmten Themen oder Personen befinden. Abschließend sei allen Internetnutzern noch eine ganz spezielle Seite ans Herz gelegt. Die Suchfibel (www.suchfibel.de) gibt wichtige Tipps für das richtige Suchen im Netz. Zum einen werden hier Ratschläge gegeben, die das Finden von Informationen im Web einfacher machen, zum anderen listet die Seite auch 2700 verschiedene Suchmaschinen - nach Stichwörtern geordnet - auf."
    Date
    3. 5.1997 8:44:22
  7. Behrens, D.: Test: Datei-Newsserver (2004) 0.02
    0.020141998 = product of:
      0.09063899 = sum of:
        0.048268408 = sum of:
          0.012233539 = weight(_text_:web in 2139) [ClassicSimilarity], result of:
            0.012233539 = score(doc=2139,freq=4.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.12748088 = fieldWeight in 2139, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
          0.03603487 = weight(_text_:seite in 2139) [ClassicSimilarity], result of:
            0.03603487 = score(doc=2139,freq=4.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21879151 = fieldWeight in 2139, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
        0.04237058 = sum of:
          0.03241063 = weight(_text_:bewertung in 2139) [ClassicSimilarity], result of:
            0.03241063 = score(doc=2139,freq=2.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.17448384 = fieldWeight in 2139, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
          0.009959949 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
            0.009959949 = score(doc=2139,freq=2.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.09672529 = fieldWeight in 2139, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
      0.22222222 = coord(2/9)
    
    Content
    - Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
  8. Lewandowski, D.: Bewertung von linktopologischen Verfahren als bestimmender Ranking-Faktor bei WWW Suchmaschinen (2006) 0.02
    0.018252134 = product of:
      0.082134604 = sum of:
        0.043241847 = product of:
          0.086483695 = sum of:
            0.086483695 = weight(_text_:seite in 5892) [ClassicSimilarity], result of:
              0.086483695 = score(doc=5892,freq=4.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.52509964 = fieldWeight in 5892, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5892)
          0.5 = coord(1/2)
        0.038892757 = product of:
          0.077785514 = sum of:
            0.077785514 = weight(_text_:bewertung in 5892) [ClassicSimilarity], result of:
              0.077785514 = score(doc=5892,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.41876122 = fieldWeight in 5892, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5892)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Nutzerstudien haben gezeigt, dass in der Regel nur die erste Seite der von WWW Suchmaschinen ausgegebenen Trefferlisten Beachtung findet. Dies unterstreicht die Bedeutung des automatischen Rankings durch die Suchmaschinen: Dokumente, die es nicht auf eine Top-Position der Trefferliste schaffen, finden keine oder wenigstens nur eine geringe Beachtung. Alle bedeutenden Suchmaschinen setzen deshalb als einen wesentlichen Faktor des Rankings linktopologische Verfahren ein. Diese bewerten die Qualität von Webseiten anhand ihrer Verlinkungsstruktur, wobei nicht nur die Zahl der eingehenden Links als Votum gewertet wird, sondern auch die Reputation der verweisenden Seite. Die wichtigsten linktopologischen Ansätze werden erläutert. Dabei wird insbesondere auf die Frage eingegangen, ob bestimmte Arten von Webseiten bevorzugt werden bzw. welche das sind.
  9. Seehaus, S.: Können Suchmaschinen von Sozialer Software profitieren? (2008) 0.02
    0.017501557 = product of:
      0.157514 = sum of:
        0.157514 = weight(_text_:benutzerfreundlichkeit in 2306) [ClassicSimilarity], result of:
          0.157514 = score(doc=2306,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.6880913 = fieldWeight in 2306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0625 = fieldNorm(doc=2306)
      0.11111111 = coord(1/9)
    
    Abstract
    Im Rahmen eines Projekts gingen Stu­dierende an der HAW Hamburg für ihre Auftraggeber Lycos Europe und T-Online der Frage nach, wie sich Inhalte aus sozialen Suchdiensten in die algorithmische Suche einbinden lassen. Dazu analysierten und verglichen sie die Vor- und Nachteile der Systeme, die Relevanz der Sucher­gebnisse, die Benutzerfreundlichkeit sowie die Qualität der Inhalte. Für soziale Software ergaben sich daraus bedeutende Verbesserungspotentiale. Der Text beschreibt die Ergebnisse und die Empfehlungen für Lycos IQ.
  10. Wikia Search : Das Anti-Google (2008) 0.02
    0.017382618 = product of:
      0.07822178 = sum of:
        0.06826183 = sum of:
          0.017300837 = weight(_text_:web in 369) [ClassicSimilarity], result of:
            0.017300837 = score(doc=369,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.18028519 = fieldWeight in 369, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=369)
          0.050961 = weight(_text_:seite in 369) [ClassicSimilarity], result of:
            0.050961 = score(doc=369,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.3094179 = fieldWeight in 369, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=369)
        0.009959949 = product of:
          0.019919898 = sum of:
            0.019919898 = weight(_text_:22 in 369) [ClassicSimilarity], result of:
              0.019919898 = score(doc=369,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.19345059 = fieldWeight in 369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=369)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Es ist ein Start mit verschiedenen Schwächen: Der neue Google-Konkurrent "Wikia Search" verschreckt den User in seiner aktuellen Vor-abversion mit fehlerhaften Links, fehlenden Ergebnissen oder auch fragwürdigen Seitenbewertungen. Trotzdem bietet die neue Suchmaschine des Wikipedia-Gründers Jimmy Wales schon jetzt einen unschätzbaren Vorteil gegenüber dein Branchenprimus Google: Wikia Search legt den Nutzern offen, wie die Suchergebnisse zustande kommen. Sie setzt nämlich OpenSource-Programme ein - etwa den Webcrawler Grub. Dessen Algorithmen liegen für jedermann offen einsehbar im Web. Wikia Search fordert gar zum aktiven Mitmachen auf: Die Surfer können angezeigte Links bewerten Lind so die Rangfolge der Ergebnisse beeinflussen. Die Suchmaschine soll die Ergebnisse mit der Zeit besser nach Relevanz und Qualität sortieren, verspricht das Entwicklerteam. Derzeit speichert die Seite Bewertungen durch User jedoch noch nicht ab. Zusätzlich zeigt Wikia Search, passend zu den Suchbegriffen, jeweils einen kurzen Übersichtsartikel an, der allgemeine Informationen enthält. Sollte so ein Text noch fehlen, kann ganz einfach per Mausklick ein neues Dokument angelegt werden. Praktisch dabei: Jeder Nutzer hat die Möglichkeit, den Inhalt ohne Anmeldung zu bearbeiten und zu erweitern. Eine Alternative zur normalen Suche soll die »Whitelist« sein. Darin können User eine Art Webseiten-Kata-log anlegen, der für bessere Suchergebnisse sorgen soll. Die Idee einer offenen und nutzerorientierten Suchmaschine klingt vielversprechend - eine ernsthafte Konkurrenz für etablierte Suchmaschinen wie Google kann Wikia Search allerdings noch nicht sein. Denn die neue Websuche ist abhängig von der Community und ihrer Mitarbeit an dem Projekt. Dass so ein Ansatz funktionieren kann, hat die Online-Enzyklopädie Wikipedia immerhin gezeigt."
    Source
    Chip. 2008, H.3, S.22
  11. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.02
    0.016177747 = product of:
      0.07279986 = sum of:
        0.013732114 = product of:
          0.027464228 = sum of:
            0.027464228 = weight(_text_:web in 3183) [ClassicSimilarity], result of:
              0.027464228 = score(doc=3183,freq=14.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.28619388 = fieldWeight in 3183, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3183)
          0.5 = coord(1/2)
        0.05906775 = weight(_text_:benutzerfreundlichkeit in 3183) [ClassicSimilarity], result of:
          0.05906775 = score(doc=3183,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.25803423 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.22222222 = coord(2/9)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
  12. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.02
    0.015403711 = product of:
      0.0693167 = sum of:
        0.06334073 = sum of:
          0.010380501 = weight(_text_:web in 3374) [ClassicSimilarity], result of:
            0.010380501 = score(doc=3374,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.108171105 = fieldWeight in 3374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
          0.052960232 = weight(_text_:seite in 3374) [ClassicSimilarity], result of:
            0.052960232 = score(doc=3374,freq=6.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.32155657 = fieldWeight in 3374, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
        0.005975969 = product of:
          0.011951938 = sum of:
            0.011951938 = weight(_text_:22 in 3374) [ClassicSimilarity], result of:
              0.011951938 = score(doc=3374,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.116070345 = fieldWeight in 3374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3374)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
    Date
    3. 5.1997 8:44:22
  13. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.02
    0.015065095 = product of:
      0.13558586 = sum of:
        0.13558586 = sum of:
          0.10371402 = weight(_text_:bewertung in 1484) [ClassicSimilarity], result of:
            0.10371402 = score(doc=1484,freq=2.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.5583483 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
          0.031871837 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
            0.031871837 = score(doc=1484,freq=2.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.30952093 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
      0.11111111 = coord(1/9)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  14. Metzger, C.: Gratis-Bildmaterial aus dem Web (2005) 0.01
    0.014225955 = product of:
      0.0640168 = sum of:
        0.058040828 = sum of:
          0.027464228 = weight(_text_:web in 3412) [ClassicSimilarity], result of:
            0.027464228 = score(doc=3412,freq=14.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.28619388 = fieldWeight in 3412, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3412)
          0.030576602 = weight(_text_:seite in 3412) [ClassicSimilarity], result of:
            0.030576602 = score(doc=3412,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.18565075 = fieldWeight in 3412, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3412)
        0.005975969 = product of:
          0.011951938 = sum of:
            0.011951938 = weight(_text_:22 in 3412) [ClassicSimilarity], result of:
              0.011951938 = score(doc=3412,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.116070345 = fieldWeight in 3412, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3412)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Schluss mit langweiligen Web-Seiten, wenig aussagekräftigen Homepages oder Sites mit mickrigem Hintergrund: Aus dem Internet laden Sie gratis das passende Bildmaterial. Wer viel mit Texten aller Art zutun hat, weiß: Bei manchen Schriftstücken ist es erst die ansprechende Gestaltung mit eingefügten Grafiken, die zum Lesen animiert. Doch Textillustrationen, Fotos und Grafiken dienen nicht nur dazu, die Eintönigkeit des Schriftbilds aufzulockern. Vielmehr unterstreichen passende Bildmotive an der richtigen Stelle die Kernaussagen des Dokuments - gedruckt wie auch im Web. Auch Digitalfotografen benötigen manchmal fremdes Bildmaterial - etwa, um es für eine Bildmontage einzusetzen oder um bestimmte Bildbereiche für eine Retusche zu kopieren. Web-Designer nutzen Bildelemente etwa bei der Seitengestaltung oder für aussagestarke Navigationselemente. Doch längst nicht immer ist im eigenen Fundus das passende Bild für die Dokumentengestaltung oder die kreative Fotobearbeitung vorhanden.
    Content
    Lizenzfreie Bilder mit einer Suchmaschine aufstöbern Im Internet gibt es fast auf jeder Website Bilder, die Sie im Browser auf Ihrer Festplatte speichern und in anderen Anwendungen weiterverarbeiten können. Entsprechend riesig ist das Gesamtangebot an Fotos, Grafiken und Clipart-Elementen. Allerdings dürfen Sie Grafikelemente, die in eine Website eingebaut sind, nur dann für eigene Zwecke einsetzen, wenn der Urheber das ausdrücklich gestattet. Diese Erlaubnis ist normalerweise mit einem Begriff wie "rechtefrei", "lizenzfrei", "zur freien Nutzung" oder -englischsprachig - "royalty-free" gekennzeichnet. Das Problem: Auf den meisten Websites finden Sie keine Urheberrechtshinweise zu den eingebetteten Bildern. Am einfachsten ist die Suche nach lizenzfreien Web-Bildern mit einer für Grafiken und Fotos optimierten Suchmaschine wie Google (www.google.de), Fotos.de (www. fotos.de) oder Picsearch (www.picsearch. com). Für die Foto-Indizierung verwenden Suchmaschinen normalerweise den Text auf der Web-Seite, auf der sich auch das betreffende Bild befindet. Dabei werden doppelte Fundstellen automatisch aussortiert und Bilder mit der höchsten Qualität an den Anfang der Ergebnisliste gestellt. In Google sind laut Betreiber derzeit 880 Millionen Grafiken registriert. Zum Bildersuchdienst gelangen Sie auf der Google-Startseite per Klick auf die Registerkarte "Bilder". Geben Sie einen oder mehrere Suchbegriffe - durch Leerzeichen getrennt - in das Suchfeld ein, und klicken Sie auf den Button "Google Suche". Die Fundstellenanzeige erfolgt in Form von Miniaturvorschaubildern. Ein Klick auf das gewünschte Motiv öffnet die Website mit dem Foto. Um eine Grafik auf Ihrer Festplatte abzuspeichern, klicken Sie mit der rechten Maustaste darauf und wählen anschlie ßend im Kontextmenü den Befehl "Bild speichern unter". Lizenzfreie Bilder oder ganze Online-Fotogalerien stöbern Sie auch ohne spezielle Bildersuchfunktion mit einer Standardrecherche in einer Suchmaschine wie Alltheweb (www.alltheweb.com) auf. Geben Sie dazu einen Begriff wie "Foto", "Bilder" oder "Picture" in Kombination mit "lizenzfrei" oder "royalty-free" in das Suchfeld der verwendeten Suchmaschine ein.
    Date
    22. 5.2005 10:06:58
    Footnote
    Web-Bilderdienste - www.72px.de Das Angebot besteht aus kostenlosen Bildern für nichtkommerzielle Projekte. Als registrierter Nutzer können Sie eigene Fotos veröffentlichen. - www.fotodatabase.net Bei der kostenlosen Foto-Community kann jeder eigene Bilder beisteuern und deren zeitlich und räumlich unbegrenztes Nutzungsrecht für 9,90 Euro an Interessenten weiterverkaufen. - www.fotodatenbank.com Die Foto-Website bietet eine Kommentierungsmöglichkeit. Die private und kommerzielle Weiterverwendung der Bilder ist kostenlos, sofern ein Bildquellnachweis erfolgt. - www.fotos-direkt.de Die Nutzungsrechte an den hochauflösenden Bildern kosten 9,90 Euro, Fotos mit niedriger Auflösung sind kostenlos. Außerdem können Sie thematisch gebundene Foto-CDs für rund 40 Euro bestellen. - www.photobox.ru Auf der Foto-Website mit englischsprachiger Bedienung müssen Sie für die Bilderrechte je nach Auflösung zwischen 5 und 35 Euro bezahlen. - www.photocase.de Die Fotos ambitionierter Hobbyfotografen liegen in einer Mindestauflösungvon 1800 x1400 Pixeln vor. Downloads sind nach einem Bonuspunktesystem eingeschränkt. - www.pixelquelle.de Alle Bilder lassen sich gratis für kommerzielle wie für nichtkommerzielle Projekte nutzen. Außerdem gibt es eine FotoUpload-FUnktion. - www.sxc.hu Bei der Fototausch-Community für lizenzfreie Bilder kann jeder Besucher eigene Bilder beisteuern und Fotos anderer Anwender herunterladen und nutzen. - www.visipix.ch Die Website bietet Fotoreproduktionen von Gemälden. Insgesamt umfasst der Bestand an Bildern rund 90.000 Aufnahmen. Die meisten Motive sind sowohl für die private als auch für die kommerzielle Nutzung kostenlos. Eine Suchmaschine erleichtert das Aufspüren von Motiven.
  15. Zurawski, A.: Fit fürs Netz : alles über Suchmaschinen (1997) 0.01
    0.013409437 = product of:
      0.12068493 = sum of:
        0.12068493 = sum of:
          0.039147325 = weight(_text_:web in 7624) [ClassicSimilarity], result of:
            0.039147325 = score(doc=7624,freq=4.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.4079388 = fieldWeight in 7624, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0625 = fieldNorm(doc=7624)
          0.081537604 = weight(_text_:seite in 7624) [ClassicSimilarity], result of:
            0.081537604 = score(doc=7624,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.49506867 = fieldWeight in 7624, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0625 = fieldNorm(doc=7624)
      0.11111111 = coord(1/9)
    
    Abstract
    Neben Web-Browsern sind Suchmaschinen die wichtigsten Tools fürs Internet. Ohne sie würden Anbieter von Daten und Surfer oft nur durch Zufall oder Glück zueinander finden. CHIP stellt im zweiten Teil der neuen Serie die 7 wichtigsten Suchdienste (AltaVista, Yahoo, Lycos, Kitty (Flipper), WebCrawler, Web.De, Excite) vor und zeigt, mit welchen Tricks Sie schneller auf der gesuchten Web-Seite landen
  16. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.01
    0.013020766 = product of:
      0.05859345 = sum of:
        0.05460947 = sum of:
          0.013840669 = weight(_text_:web in 3684) [ClassicSimilarity], result of:
            0.013840669 = score(doc=3684,freq=8.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.14422815 = fieldWeight in 3684, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
          0.040768802 = weight(_text_:seite in 3684) [ClassicSimilarity], result of:
            0.040768802 = score(doc=3684,freq=8.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.24753433 = fieldWeight in 3684, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
        0.0039839796 = product of:
          0.007967959 = sum of:
            0.007967959 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.007967959 = score(doc=3684,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
    Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend.
    Date
    22. 6.2005 9:52:00
  17. Beuth, P.: Wie Google, nur belesen : Suchmaschine, die sich selbst nicht kennt - Cuil vs. Google (2008) 0.01
    0.012167833 = product of:
      0.054755248 = sum of:
        0.047783285 = sum of:
          0.012110585 = weight(_text_:web in 6083) [ClassicSimilarity], result of:
            0.012110585 = score(doc=6083,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.12619963 = fieldWeight in 6083, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6083)
          0.035672702 = weight(_text_:seite in 6083) [ClassicSimilarity], result of:
            0.035672702 = score(doc=6083,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21659255 = fieldWeight in 6083, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6083)
        0.006971964 = product of:
          0.013943928 = sum of:
            0.013943928 = weight(_text_:22 in 6083) [ClassicSimilarity], result of:
              0.013943928 = score(doc=6083,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.1354154 = fieldWeight in 6083, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6083)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Als kleines Internet-Start-Up gleich den Marktführer Google anzugreifen, ist wie barfuß gegen einen Öltanker zu treten: Man kann sich nur wehtun. Umso verwegener ist der Plan, wenn sich das Start-Up unter anderem aus ehemaligen Angestellten von Google zusammensetzt, die es besser wissen müssten. Sie tun es trotzdem. Cuil heißt ihre neue Suchmaschine, was wie "cool" ausgesprochen wird und auf Gälisch so viel wie Wissen bedeutet. Und weil gegen den Branchenprimus nur Klotzen hilft, nennen die Davids gleich mal eine Hausnummer: 120.000.000.000. So viele Seiten will Cuil indiziert haben: 120 Milliarden - und damit nach eigenen Angaben bis zu viermal mehr als Goliath Google. Zudem arbeitet Cuil etwas anders als Google: Die Suchergebnisse werden nicht als lange Linkliste präsentiert, sondern in Spalten geordnet, als Teaser mit Bild. Bewertet wird nicht wie bei Google die Anzahl der Links auf die jeweiligen Treffer, also die Popularität einer Webseite. Vielmehr wird deren gesamter Inhalt von Cuil automatisch durchsucht. Dabei soll die neue Maschine erkennen, ob ein Wort mehrere Bedeutungen hat und als Ergebnis entsprechende Kategorien anbieten. Das beste Argument für einen Gewohnheitswechsel ist jedoch die Datenschutz-Politik der Neulinge: Im Gegensatz zu Google speichert Cuil nicht, über welche IP-Adresse eines Rechners wann und wonach gesucht wurde. "Wir wollen das Web analysieren, nicht die Nutzer", sagen sie. Um bei Google unerfasst zu bleiben, kann der User immerhin einen kleinen Umweg nutzen: die Seite scroogle.org schaltet sich zwischen Nutzer und Google, löscht dessen Cookie und liefert anonymisiert die gewohnten Googletreffer. Der sorgsame Umgang mit Userdaten gehört zu den Alleinstellungsmerkmalen, die die Herausforderer dringend nötig haben. Immerhin beschäftigt Google 20.000 Mitarbeiter und investiert jedes Jahr gewaltige Summen in die Verbesserung seiner Suchtechniken. Zuletzt hat Microsoft deshalb die kleine Firma Powerset und deren halb-semantische Suchmaschine aufgekauft: Powerset versteht simpel formulierte Fragen wie "Wer ist...?" und "Was ist ein...?" und beantwortet sie mit passenden Treffern - durchsucht bislang aber nur Wikipedia und die Datenbank Freebase. Das bringt bei Google keinen um den Schlaf, ist aber ein Vorgeschmack auf künftige Suchmaschinen. Natürlich laboriert auch Cuil noch an Kinderkrankheiten. So sind die Server unter dem ersten Ansturm sofort zusammengebrochen. Zudem zeigt Cuil zu vielen Seiten Bilder, die gar nichts mit dem Treffer zu tun haben. Den bislang entscheidenden Minuspunkt aber gibt es für die schlechten Suchergebnisse: Da tauchen an prominenter Stelle veraltete Seiten und irrelevante Informationen auf, die gesuchten Hauptseiten dafür manchmal gar nicht. Bestes Beispiel ist peinlicherweise Cuil selbst. Der Suchbegriff führt zu Immobilienanzeigen in Irland und Downloads der irischen Band The Chieftains. Umso ärgerlicher für Cuil, dass der alte Tanker Google bereits jede Menge Infos über die neue Konkurrenz ausspuckt."
    Date
    17. 7.1996 9:33:22
  18. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.01
    0.012167833 = product of:
      0.054755248 = sum of:
        0.047783285 = sum of:
          0.012110585 = weight(_text_:web in 3671) [ClassicSimilarity], result of:
            0.012110585 = score(doc=3671,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.12619963 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
          0.035672702 = weight(_text_:seite in 3671) [ClassicSimilarity], result of:
            0.035672702 = score(doc=3671,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21659255 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
        0.006971964 = product of:
          0.013943928 = sum of:
            0.013943928 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
              0.013943928 = score(doc=3671,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.1354154 = fieldWeight in 3671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3671)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  19. Höfer, W.: Detektive im Web (1999) 0.01
    0.012125821 = product of:
      0.054566193 = sum of:
        0.020761002 = product of:
          0.041522004 = sum of:
            0.041522004 = weight(_text_:web in 4007) [ClassicSimilarity], result of:
              0.041522004 = score(doc=4007,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.43268442 = fieldWeight in 4007, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
        0.03380519 = product of:
          0.06761038 = sum of:
            0.06761038 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.06761038 = score(doc=4007,freq=4.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Date
    22. 8.1999 20:22:06
  20. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.01
    0.011579784 = product of:
      0.052109025 = sum of:
        0.02422117 = product of:
          0.04844234 = sum of:
            0.04844234 = weight(_text_:web in 3175) [ClassicSimilarity], result of:
              0.04844234 = score(doc=3175,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.50479853 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
        0.027887857 = product of:
          0.055775713 = sum of:
            0.055775713 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.055775713 = score(doc=3175,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28

Years

Languages

  • e 407
  • d 286
  • f 4
  • nl 4
  • ja 1
  • sp 1
  • More… Less…

Types

  • a 602
  • el 62
  • m 49
  • s 11
  • x 11
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications