Search (736 results, page 1 of 37)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.36
    0.36372706 = product of:
      0.5455906 = sum of:
        0.05567471 = product of:
          0.16702412 = sum of:
            0.16702412 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.16702412 = score(doc=2514,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.23620777 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23620777 = score(doc=2514,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.017500332 = product of:
          0.035000663 = sum of:
            0.035000663 = weight(_text_:web in 2514) [ClassicSimilarity], result of:
              0.035000663 = score(doc=2514,freq=4.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3059541 = fieldWeight in 2514, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.5 = coord(1/2)
        0.23620777 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23620777 = score(doc=2514,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.6666667 = coord(4/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
    Source
    WWW '02: Proceedings of the 11th International Conference on World Wide Web, May 7-11, 2002, Honolulu, Hawaii, USA
  2. Langville, A.N.; Meyer, C.D.: Google's PageRank and beyond : the science of search engine rankings (2006) 0.12
    0.12334621 = product of:
      0.37003863 = sum of:
        0.08867244 = sum of:
          0.037123807 = weight(_text_:web in 6) [ClassicSimilarity], result of:
            0.037123807 = score(doc=6,freq=18.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.32451332 = fieldWeight in 6, product of:
                4.2426405 = tf(freq=18.0), with freq of:
                  18.0 = termFreq=18.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6)
          0.05154863 = weight(_text_:seite in 6) [ClassicSimilarity], result of:
            0.05154863 = score(doc=6,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.26254982 = fieldWeight in 6, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6)
        0.2813662 = weight(_text_:rangstatistik in 6) [ClassicSimilarity], result of:
          0.2813662 = score(doc=6,freq=8.0), product of:
            0.3857228 = queryWeight, product of:
              11.00374 = idf(docFreq=1, maxDocs=44218)
              0.03505379 = queryNorm
            0.72945184 = fieldWeight in 6, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              11.00374 = idf(docFreq=1, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6)
      0.33333334 = coord(2/6)
    
    Abstract
    Why doesn't your home page appear on the first page of search results, even when you query your own name? How do other Web pages always appear at the top? What creates these powerful rankings? And how? The first book ever about the science of Web page rankings, "Google's PageRank and Beyond" supplies the answers to these and other questions and more. The book serves two very different audiences: the curious science reader and the technical computational reader. The chapters build in mathematical sophistication, so that the first five are accessible to the general academic reader. While other chapters are much more mathematical in nature, each one contains something for both audiences. For example, the authors include entertaining asides such as how search engines make money and how the Great Firewall of China influences research. The book includes an extensive background chapter designed to help readers learn more about the mathematics of search engines, and it contains several MATLAB codes and links to sample Web data sets. The philosophy throughout is to encourage readers to experiment with the ideas and algorithms in the text. Any business seriously interested in improving its rankings in the major search engines can benefit from the clear examples, sample code, and list of resources provided. It includes: many illustrative examples and entertaining asides; MATLAB code; accessible and informal style; and complete and self-contained section for mathematics review.
    Content
    Inhalt: Chapter 1. Introduction to Web Search Engines: 1.1 A Short History of Information Retrieval - 1.2 An Overview of Traditional Information Retrieval - 1.3 Web Information Retrieval Chapter 2. Crawling, Indexing, and Query Processing: 2.1 Crawling - 2.2 The Content Index - 2.3 Query Processing Chapter 3. Ranking Webpages by Popularity: 3.1 The Scene in 1998 - 3.2 Two Theses - 3.3 Query-Independence Chapter 4. The Mathematics of Google's PageRank: 4.1 The Original Summation Formula for PageRank - 4.2 Matrix Representation of the Summation Equations - 4.3 Problems with the Iterative Process - 4.4 A Little Markov Chain Theory - 4.5 Early Adjustments to the Basic Model - 4.6 Computation of the PageRank Vector - 4.7 Theorem and Proof for Spectrum of the Google Matrix Chapter 5. Parameters in the PageRank Model: 5.1 The a Factor - 5.2 The Hyperlink Matrix H - 5.3 The Teleportation Matrix E Chapter 6. The Sensitivity of PageRank; 6.1 Sensitivity with respect to alpha - 6.2 Sensitivity with respect to H - 6.3 Sensitivity with respect to vT - 6.4 Other Analyses of Sensitivity - 6.5 Sensitivity Theorems and Proofs Chapter 7. The PageRank Problem as a Linear System: 7.1 Properties of (I - alphaS) - 7.2 Properties of (I - alphaH) - 7.3 Proof of the PageRank Sparse Linear System Chapter 8. Issues in Large-Scale Implementation of PageRank: 8.1 Storage Issues - 8.2 Convergence Criterion - 8.3 Accuracy - 8.4 Dangling Nodes - 8.5 Back Button Modeling
    Chapter 9. Accelerating the Computation of PageRank: 9.1 An Adaptive Power Method - 9.2 Extrapolation - 9.3 Aggregation - 9.4 Other Numerical Methods Chapter 10. Updating the PageRank Vector: 10.1 The Two Updating Problems and their History - 10.2 Restarting the Power Method - 10.3 Approximate Updating Using Approximate Aggregation - 10.4 Exact Aggregation - 10.5 Exact vs. Approximate Aggregation - 10.6 Updating with Iterative Aggregation - 10.7 Determining the Partition - 10.8 Conclusions Chapter 11. The HITS Method for Ranking Webpages: 11.1 The HITS Algorithm - 11.2 HITS Implementation - 11.3 HITS Convergence - 11.4 HITS Example - 11.5 Strengths and Weaknesses of HITS - 11.6 HITS's Relationship to Bibliometrics - 11.7 Query-Independent HITS - 11.8 Accelerating HITS - 11.9 HITS Sensitivity Chapter 12. Other Link Methods for Ranking Webpages: 12.1 SALSA - 12.2 Hybrid Ranking Methods - 12.3 Rankings based on Traffic Flow Chapter 13. The Future of Web Information Retrieval: 13.1 Spam - 13.2 Personalization - 13.3 Clustering - 13.4 Intelligent Agents - 13.5 Trends and Time-Sensitive Search - 13.6 Privacy and Censorship - 13.7 Library Classification Schemes - 13.8 Data Fusion Chapter 14. Resources for Web Information Retrieval: 14.1 Resources for Getting Started - 14.2 Resources for Serious Study Chapter 15. The Mathematics Guide: 15.1 Linear Algebra - 15.2 Perron-Frobenius Theory - 15.3 Markov Chains - 15.4 Perron Complementation - 15.5 Stochastic Complementation - 15.6 Censoring - 15.7 Aggregation - 15.8 Disaggregation
    RSWK
    Google / Web-Seite / Rangstatistik (HEBIS)
    Webpage / Rangstatistik (GBV)
    Subject
    Google / Web-Seite / Rangstatistik (HEBIS)
    Webpage / Rangstatistik (GBV)
  3. ¬Der Erfolg von Google (2003) 0.05
    0.052811764 = product of:
      0.15843529 = sum of:
        0.1520454 = sum of:
          0.03299894 = weight(_text_:web in 1407) [ClassicSimilarity], result of:
            0.03299894 = score(doc=1407,freq=8.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.2884563 = fieldWeight in 1407, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=1407)
          0.119046465 = weight(_text_:seite in 1407) [ClassicSimilarity], result of:
            0.119046465 = score(doc=1407,freq=12.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.60633284 = fieldWeight in 1407, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=1407)
        0.0063898875 = product of:
          0.019169662 = sum of:
            0.019169662 = weight(_text_:29 in 1407) [ClassicSimilarity], result of:
              0.019169662 = score(doc=1407,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.15546128 = fieldWeight in 1407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Google ist die weltweit größte Suchmaschine und bietet die schnellste und einfachste Informationssuche im Web an. Googles Aufgabe ist die Bereitstellung des besten Suchdienstes im Internet, um die weltweiten Informationen allgemein erreichbar und nutzbar zu machen. Google erreicht über 2 Mrd. Web-Seiten und liefert in meist weniger als einer halben Sekunde relevante Suchergebnisse an Benutzer in aller Welt. Im Augenblick beantwortet Google mehr als 100 Millionen Anfragen pro Tag.
    Content
    "Zwei Stanford-Doktoranden, Larry Page und Sergey Brin, gründeten 1998 Google. Das Unternehmen, das sich in Privatbesitz befindet, gab 1999 bekannt, dass es Eigenkapitalinvestitionen in Höhe von 25 Millionen US$ sicherstellen konnte. Unter den Investoren sind Kleiner Perkins Caufeld & Byers und Sequoia Capital. Google betreibt seinen Dienst auf seiner eigenen, öffentlich zugänglichen Website, www.google.com. Die Firma bietet außerdem unter gemeinsamen Markennamen Informationsdienstleistern Suchlösungen für das Web an. - Die Google-Technologie - Mit einer innovativen Suchtechnik und einer eleganten Benutzeroberfläche setzt sich Google von den Suchmaschinen der ersten Generation ab. Statt nur eine Stichwort- oder Meta-Suchtechnologie zu verwenden, basiert Google auf der zum Patent angemeldeten PageRankTM-Technologie, bei der die wichtigsten Ergebnisse immer zuerst gelistet werden. PageRank unternimmt eine objektive Bewertung der Wichtigkeit von Webseiten, bei der 500 Millionen Variablen und mehr als 2 Milliorden Begriffe verglichen werden. Dabei nutzt PageRank die riesige Link-Struktur des World-Wide-Web als Organisationsmittel. Der Kern der Methode ist dabei, dass Google einen Link von Seite A zu Seite B als ein "Votum" von Seite Afür Seite B interpretiert. Google schätzt die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Googles komplexe, automatische Suchmethoden schließen einen menschlichen Eingriff aus. Im Gegensatzzu anderen Suchmaschinen kannvon Google keine höhere Listung oder eine kommerzielle Veränderung der Ergebnisse gekauft werden. Eine Google-Suche ist ein einfacher, ehrlicher und objektiver Weg, qualitativ hochwertige Websites zu finden."
    Date
    29. 1.1997 18:49:05
  4. Puschwadt, O.: Wer suchet, der findet : Suchmaschinen - Es müssen nicht immer nur Google und Yahoo sein (2005) 0.04
    0.040885292 = product of:
      0.12265587 = sum of:
        0.113700494 = sum of:
          0.01649947 = weight(_text_:web in 3731) [ClassicSimilarity], result of:
            0.01649947 = score(doc=3731,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.14422815 = fieldWeight in 3731, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=3731)
          0.09720103 = weight(_text_:seite in 3731) [ClassicSimilarity], result of:
            0.09720103 = score(doc=3731,freq=8.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.49506867 = fieldWeight in 3731, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=3731)
        0.008955375 = product of:
          0.026866125 = sum of:
            0.026866125 = weight(_text_:22 in 3731) [ClassicSimilarity], result of:
              0.026866125 = score(doc=3731,freq=4.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.21886435 = fieldWeight in 3731, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3731)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Nobody is perfect - diese Weisheit trifft auch auf Suchmaschinen zu. Google, Yahoo und Co. finden zwar viel, aber nicht alles. Insbesondere bei Spezialthemen ist es ratsam, eine Meta-Suchmaschine wie Metacrawler (www.metacrawler.de), MetaGer (meta.rrzn.uni-hannover.de) oder Ixquick (www.eu.ixquick.com) zu Rate zu ziehen. Sie fragen gleichzeitig mehrere Suchmaschinen ab. Bei Metacrawler sind dies beispielsweise 22 internationale und 15 nationale Suchdienste. Ixquick durchstöbert gleichzeitig mindestens zehn der populärsten Suchmaschinen und dies in 17 Sprachen. Dadurch verbessert sich die Trefferquote natürlich erheblich. Eine weitere gute Möglichkeit, die spezielle Suche im Internet spürbar zu erleichtern, ist die Benutzung eines Webkataloges. Zu empfehlen sind Excite (www.excite.de), das Suchlexikon (www.suchlexikon.de) oder auch das englischsprachige Angebot iTools (www.itools.com). Diese Webkataloge können als "Verzeichnisse von Suchmaschinen" bezeichnet werden. Sie bündeln verschiedene Suchmaschinen zu bestimmten Themengebieten wie Wirtschaft, Freizeit, Computer oder Sport. Keine Suchmaschine im eigentlichen Sinne, aber dennoch sehr nützlich, um an Informationen oder auch Ratschläge im Netz zu kommen, ist Wikipedia (de.wikipedia.org). Das Internet-Lexikon hat sich den Beinamen "die freie Enzyklopädie" gegeben und dient als Sammelpunkt für Informationen und Wissen der User. Dies ist allerdings auch die Schwäche der Seite, denn um eine hundertprozentig verlässliche Antwort zu bekommen, sind die Angaben oft zu ungenau. Eine interessante Variante ist die News-Suchmaschine Paperball (www.paperball.de). Hierbei werden die Online-Ausgaben deutscher und internationaler, Tagesund Wochenzeitungen durchforstet. Man kann die Suche auch auf bestimmte Rubriken beschränken. Auf der Suche nach ehemaligen Mitschülern? Dann sind Sie bei StayFriends (www.stayfriends.de) genau richtig. Nach einer kostenlosen Anmeldung kann man nach verloren gegangenen Freunden aus der Schulzeit fahnden. Fast 1,8 Millionen Einträge sollen laut Anbieter bereits auf der Seite eingegangen sein. Der Nachteil: Wer sich nicht eingetragen hat, wird auch nicht gefunden. Wer gezielt nach Bildern sucht, wird bei Bomis (www.bomis.com) fündig. Hierbei werden nur Seiten durchstöbert, auf denen sich Bilder zu bestimmten Themen oder Personen befinden. Abschließend sei allen Internetnutzern noch eine ganz spezielle Seite ans Herz gelegt. Die Suchfibel (www.suchfibel.de) gibt wichtige Tipps für das richtige Suchen im Netz. Zum einen werden hier Ratschläge gegeben, die das Finden von Informationen im Web einfacher machen, zum anderen listet die Seite auch 2700 verschiedene Suchmaschinen - nach Stichwörtern geordnet - auf."
    Date
    3. 5.1997 8:44:22
  5. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.04
    0.03767742 = product of:
      0.11303225 = sum of:
        0.10625475 = sum of:
          0.024749206 = weight(_text_:web in 851) [ClassicSimilarity], result of:
            0.024749206 = score(doc=851,freq=8.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.21634221 = fieldWeight in 851, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=851)
          0.081505544 = weight(_text_:seite in 851) [ClassicSimilarity], result of:
            0.081505544 = score(doc=851,freq=10.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.41512772 = fieldWeight in 851, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=851)
        0.0067775 = product of:
          0.020332498 = sum of:
            0.020332498 = weight(_text_:29 in 851) [ClassicSimilarity], result of:
              0.020332498 = score(doc=851,freq=4.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.1648916 = fieldWeight in 851, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=851)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Spektrum der Wissenschaft: Frau Henzinger, wie viele Seiten des World Wide Web erschließt Google heute? Monika Henzinger: Wir haben über zwei Milliarden Webseiten in unserer Datenbank. Hinzu kommen 700 Millionen Newsgroup-Beiträge, die weit in die Vergangenheit reichen, und 300 Millionen Bilder. - Spektrum: Und diese Inhalte haben Sie komplett gespeichert? - Henzinger: In komprimierter Form, ja. Spektrum: Ist das nicht schon das gesamte Web? - Henzinger: Bei weitem nicht! Eigentlich ist das Web unendlich. Es gibt Datenbanken, die beliebig viele Webseiten auf Anfrage erzeugen können. Natürlich macht es keinen Sinn, die alle in der Suchmaschine zu haben. Wir beschränken uns auf Seiten hoher Qualität. - Spektrum: Wie wählen Sie die aus? - Henzinger: Nach dem so genannten PageRank. Das ist eine Note, die wir jeder Seite geben, unabhängig von irgendeiner Anfrage, für die diese Seite relevant sein könnte. Und zwar ist die Qualität einer Seite - oder anders gesagt: die Hochachtung, die sie innerhalb des Web genießt - umso größer, je mehr andere Seiten auf sie verweisen und je höher die Qualität der verweisenden Seite ist. Der PageRank bestimmt auch wesentlich die Reihenfolge, in der Google dem Anfrager die Ergebnisse präsentiert. - Spektrum: Ist der PageRank manipulierbar, etwa durch ein Zitierkartell? - Henzinger: Es wird zumindest immer wieder versucht. Zum Beispiel ist "Britney Spears" ein sehr häufiger Suchbegriff. Deswegen versuchen viele, ihren PageRank hochzutreiben, um unter den Antworten auf "Britney Spears" auf den vordersten Plätzen zu landen, auch wenn sie bloß Turnschuhe verkaufen. - Spektrum: Und was tun Sie dagegen? - Henzinger: Wenn wir offensichtlichen Missbrauch sehen, nehmen wir die entsprechenden Seiten gezielt heraus - im Interesse unserer Benutzer, für die wir die Qualität wahren wollen. - Spektrum: Gibt es auch andere Maßnahmen als diese Einzelkorrekturen? - Henzinger: Ja. Aber die diskutieren wir nicht öffentlich, um den "Rüstungswettlauf" nicht anzuheizen. - Spektrum: Seit wann gibt es Google? - Henzinger: Die Firma existiert seit dreieinhalb Jahren. Seit reichlich zwei Jahren sind wir auf dem Markt. Die Kunde von uns hat sich durch Mundpropaganda verbreitet, und inzwischen kommt die Hälfte der Anfragen von außerhalb der USA, zwölf Prozent allein aus dem deutschsprachigen Raum. Wir beantworten über 150 Millionen Anfragen am Tag, und zwar direkt oder über unsere Partner. Wenn zum Beispiel die Suchmaschine Yahoo ein Stichwort nicht im eigenen Verzeichnis findet, reicht sie die Anfrage an uns weiter und gibt dem Benutzer unsere Antwort. - Spektrum: Mit welcher Hardware läuft das System? - Henzinger: Mit über zehntausend PCs, verteilt auf vier Datenzentren. Betriebssystem ist Linux. - Spektrum: Wie prüfen Sie, ob die aufgeftihrten Webseiten noch existieren? - Henzinger: Besonders ereignisreiche Webseiten besuchen wir täglich. Alle 28 Tage aktualisieren wir den Index - das ist die Liste, die zu jedem Wort die Seiten aufführt, auf denen es vorkommt. - Spektrum: Wie aufwendig ist dieses Indizieren? - Henzinger: Sehr aufwendig. Etwa eine Woche. - Spektrum: Wie viele Leute hat die Firma? - Henzinger: Ungefähr 300. Bisher haben wir unsere Belegschaft in jedem Jahr ungefähr verdoppelt. -
    Spektrum: Wie finanziert sich Google? - Henzinger: Überwiegend durch gewöhnliche Reklame: einzeilige Anzeigen, die nur aus durchlaufendem Text bestehen. Diese Werbung erscheint nur auf solche Fragewörter, die mit dem Produkt in Verbindung stehen, wir nennen das "keyword targeting". Auch kann jeder online eine Anzeige kaufen. Wenn Sie Ihrer Frau über Google zum Geburtstag gratulieren wollen, können Sie eine Anzeige schalten, die nur auf deren Namen hin erscheint. Zweitens durch Search Services. Zum Beispiel bezahlt uns Yahoo dafür, dass unsere Ergebnisse auf deren Seite erscheinen. Manche Firmen wollen auf ihrer Webseite eine Suchfunktion einrichten, aber nicht selbst programmieren. Für diese Unternehmen bauen wir dann einen eigenen Index und beantworten damit die Suchanfragen, die an sie gestellt werden. Schließlich verkaufen wir neuerdings unsere Produkte zur firmeninternen Nutzung in Intranets. Mit diesem Konzept sind wir eine der wenigen neuen Internet-Firmen, die ihr Geld verdienen. - Spektrum: Gibt es neue Projekte? - Henzinger: Zum Beispiel Spracheingabe. Der Benutzer spricht seine Frage in ein Mikrofon und bekommt die Antworten auf den Bildschirm, später vielleicht auch gesprochen. Oder unser News Search. Unsere Maschinen lesen Tageszeitungen und stellen Artikel zum gleichen Thema aus verschiedenen Ländern zusammen. Das ist interessant, weil die Berichterstattung zumeist national gefärbt ist. Ein regelmäßiger Vergleich kann den Horizont erweitern. Klicken Sie unter google.com auf "News and Resources" und dann "Check out the Google news search". Oder User Interfaces. Wie bringt man den Benutzer dazu, mehr als zwei Wörter einzutippen? Je mehr Wörter er ansagt, desto besser können wir ihn bedienen.
    Date
    31.12.1996 19:29:41
    2. 8.2002 14:39:29
  6. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.03
    0.030008227 = product of:
      0.09002468 = sum of:
        0.085275374 = sum of:
          0.012374603 = weight(_text_:web in 2430) [ClassicSimilarity], result of:
            0.012374603 = score(doc=2430,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.108171105 = fieldWeight in 2430, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
          0.07290077 = weight(_text_:seite in 2430) [ClassicSimilarity], result of:
            0.07290077 = score(doc=2430,freq=8.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.3713015 = fieldWeight in 2430, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
        0.0047493046 = product of:
          0.014247913 = sum of:
            0.014247913 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
              0.014247913 = score(doc=2430,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.116070345 = fieldWeight in 2430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2430)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    - Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."
    Date
    22. 7.2004 9:40:10
  7. Wikia Search : Das Anti-Google (2008) 0.03
    0.029763496 = product of:
      0.089290485 = sum of:
        0.08137498 = sum of:
          0.02062434 = weight(_text_:web in 369) [ClassicSimilarity], result of:
            0.02062434 = score(doc=369,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.18028519 = fieldWeight in 369, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=369)
          0.06075064 = weight(_text_:seite in 369) [ClassicSimilarity], result of:
            0.06075064 = score(doc=369,freq=2.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.3094179 = fieldWeight in 369, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=369)
        0.007915508 = product of:
          0.023746524 = sum of:
            0.023746524 = weight(_text_:22 in 369) [ClassicSimilarity], result of:
              0.023746524 = score(doc=369,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.19345059 = fieldWeight in 369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=369)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Es ist ein Start mit verschiedenen Schwächen: Der neue Google-Konkurrent "Wikia Search" verschreckt den User in seiner aktuellen Vor-abversion mit fehlerhaften Links, fehlenden Ergebnissen oder auch fragwürdigen Seitenbewertungen. Trotzdem bietet die neue Suchmaschine des Wikipedia-Gründers Jimmy Wales schon jetzt einen unschätzbaren Vorteil gegenüber dein Branchenprimus Google: Wikia Search legt den Nutzern offen, wie die Suchergebnisse zustande kommen. Sie setzt nämlich OpenSource-Programme ein - etwa den Webcrawler Grub. Dessen Algorithmen liegen für jedermann offen einsehbar im Web. Wikia Search fordert gar zum aktiven Mitmachen auf: Die Surfer können angezeigte Links bewerten Lind so die Rangfolge der Ergebnisse beeinflussen. Die Suchmaschine soll die Ergebnisse mit der Zeit besser nach Relevanz und Qualität sortieren, verspricht das Entwicklerteam. Derzeit speichert die Seite Bewertungen durch User jedoch noch nicht ab. Zusätzlich zeigt Wikia Search, passend zu den Suchbegriffen, jeweils einen kurzen Übersichtsartikel an, der allgemeine Informationen enthält. Sollte so ein Text noch fehlen, kann ganz einfach per Mausklick ein neues Dokument angelegt werden. Praktisch dabei: Jeder Nutzer hat die Möglichkeit, den Inhalt ohne Anmeldung zu bearbeiten und zu erweitern. Eine Alternative zur normalen Suche soll die »Whitelist« sein. Darin können User eine Art Webseiten-Kata-log anlegen, der für bessere Suchergebnisse sorgen soll. Die Idee einer offenen und nutzerorientierten Suchmaschine klingt vielversprechend - eine ernsthafte Konkurrenz für etablierte Suchmaschinen wie Google kann Wikia Search allerdings noch nicht sein. Denn die neue Websuche ist abhängig von der Community und ihrer Mitarbeit an dem Projekt. Dass so ein Ansatz funktionieren kann, hat die Online-Enzyklopädie Wikipedia immerhin gezeigt."
    Source
    Chip. 2008, H.3, S.22
  8. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.03
    0.026752612 = product of:
      0.08025783 = sum of:
        0.07550853 = sum of:
          0.012374603 = weight(_text_:web in 3374) [ClassicSimilarity], result of:
            0.012374603 = score(doc=3374,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.108171105 = fieldWeight in 3374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
          0.063133925 = weight(_text_:seite in 3374) [ClassicSimilarity], result of:
            0.063133925 = score(doc=3374,freq=6.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.32155657 = fieldWeight in 3374, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
        0.0047493046 = product of:
          0.014247913 = sum of:
            0.014247913 = weight(_text_:22 in 3374) [ClassicSimilarity], result of:
              0.014247913 = score(doc=3374,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.116070345 = fieldWeight in 3374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3374)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
    Date
    3. 5.1997 8:44:22
  9. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.03
    0.025432613 = product of:
      0.15259567 = sum of:
        0.15259567 = sum of:
          0.049498413 = weight(_text_:web in 1705) [ClassicSimilarity], result of:
            0.049498413 = score(doc=1705,freq=8.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.43268442 = fieldWeight in 1705, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.046875 = fieldNorm(doc=1705)
          0.10309726 = weight(_text_:seite in 1705) [ClassicSimilarity], result of:
            0.10309726 = score(doc=1705,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.52509964 = fieldWeight in 1705, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.046875 = fieldNorm(doc=1705)
      0.16666667 = coord(1/6)
    
    RSWK
    Suchmaschine / Web-Seite / Qualitätsmanagement / Benutzerfreundlichkeit / Bewertung
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
    Subject
    Suchmaschine / Web-Seite / Qualitätsmanagement / Benutzerfreundlichkeit / Bewertung
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
  10. Metzger, C.: Gratis-Bildmaterial aus dem Web (2005) 0.02
    0.024646606 = product of:
      0.073939815 = sum of:
        0.06919051 = sum of:
          0.032740124 = weight(_text_:web in 3412) [ClassicSimilarity], result of:
            0.032740124 = score(doc=3412,freq=14.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.28619388 = fieldWeight in 3412, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3412)
          0.036450386 = weight(_text_:seite in 3412) [ClassicSimilarity], result of:
            0.036450386 = score(doc=3412,freq=2.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.18565075 = fieldWeight in 3412, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3412)
        0.0047493046 = product of:
          0.014247913 = sum of:
            0.014247913 = weight(_text_:22 in 3412) [ClassicSimilarity], result of:
              0.014247913 = score(doc=3412,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.116070345 = fieldWeight in 3412, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3412)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Schluss mit langweiligen Web-Seiten, wenig aussagekräftigen Homepages oder Sites mit mickrigem Hintergrund: Aus dem Internet laden Sie gratis das passende Bildmaterial. Wer viel mit Texten aller Art zutun hat, weiß: Bei manchen Schriftstücken ist es erst die ansprechende Gestaltung mit eingefügten Grafiken, die zum Lesen animiert. Doch Textillustrationen, Fotos und Grafiken dienen nicht nur dazu, die Eintönigkeit des Schriftbilds aufzulockern. Vielmehr unterstreichen passende Bildmotive an der richtigen Stelle die Kernaussagen des Dokuments - gedruckt wie auch im Web. Auch Digitalfotografen benötigen manchmal fremdes Bildmaterial - etwa, um es für eine Bildmontage einzusetzen oder um bestimmte Bildbereiche für eine Retusche zu kopieren. Web-Designer nutzen Bildelemente etwa bei der Seitengestaltung oder für aussagestarke Navigationselemente. Doch längst nicht immer ist im eigenen Fundus das passende Bild für die Dokumentengestaltung oder die kreative Fotobearbeitung vorhanden.
    Content
    Lizenzfreie Bilder mit einer Suchmaschine aufstöbern Im Internet gibt es fast auf jeder Website Bilder, die Sie im Browser auf Ihrer Festplatte speichern und in anderen Anwendungen weiterverarbeiten können. Entsprechend riesig ist das Gesamtangebot an Fotos, Grafiken und Clipart-Elementen. Allerdings dürfen Sie Grafikelemente, die in eine Website eingebaut sind, nur dann für eigene Zwecke einsetzen, wenn der Urheber das ausdrücklich gestattet. Diese Erlaubnis ist normalerweise mit einem Begriff wie "rechtefrei", "lizenzfrei", "zur freien Nutzung" oder -englischsprachig - "royalty-free" gekennzeichnet. Das Problem: Auf den meisten Websites finden Sie keine Urheberrechtshinweise zu den eingebetteten Bildern. Am einfachsten ist die Suche nach lizenzfreien Web-Bildern mit einer für Grafiken und Fotos optimierten Suchmaschine wie Google (www.google.de), Fotos.de (www. fotos.de) oder Picsearch (www.picsearch. com). Für die Foto-Indizierung verwenden Suchmaschinen normalerweise den Text auf der Web-Seite, auf der sich auch das betreffende Bild befindet. Dabei werden doppelte Fundstellen automatisch aussortiert und Bilder mit der höchsten Qualität an den Anfang der Ergebnisliste gestellt. In Google sind laut Betreiber derzeit 880 Millionen Grafiken registriert. Zum Bildersuchdienst gelangen Sie auf der Google-Startseite per Klick auf die Registerkarte "Bilder". Geben Sie einen oder mehrere Suchbegriffe - durch Leerzeichen getrennt - in das Suchfeld ein, und klicken Sie auf den Button "Google Suche". Die Fundstellenanzeige erfolgt in Form von Miniaturvorschaubildern. Ein Klick auf das gewünschte Motiv öffnet die Website mit dem Foto. Um eine Grafik auf Ihrer Festplatte abzuspeichern, klicken Sie mit der rechten Maustaste darauf und wählen anschlie ßend im Kontextmenü den Befehl "Bild speichern unter". Lizenzfreie Bilder oder ganze Online-Fotogalerien stöbern Sie auch ohne spezielle Bildersuchfunktion mit einer Standardrecherche in einer Suchmaschine wie Alltheweb (www.alltheweb.com) auf. Geben Sie dazu einen Begriff wie "Foto", "Bilder" oder "Picture" in Kombination mit "lizenzfrei" oder "royalty-free" in das Suchfeld der verwendeten Suchmaschine ein.
    Date
    22. 5.2005 10:06:58
    Footnote
    Web-Bilderdienste - www.72px.de Das Angebot besteht aus kostenlosen Bildern für nichtkommerzielle Projekte. Als registrierter Nutzer können Sie eigene Fotos veröffentlichen. - www.fotodatabase.net Bei der kostenlosen Foto-Community kann jeder eigene Bilder beisteuern und deren zeitlich und räumlich unbegrenztes Nutzungsrecht für 9,90 Euro an Interessenten weiterverkaufen. - www.fotodatenbank.com Die Foto-Website bietet eine Kommentierungsmöglichkeit. Die private und kommerzielle Weiterverwendung der Bilder ist kostenlos, sofern ein Bildquellnachweis erfolgt. - www.fotos-direkt.de Die Nutzungsrechte an den hochauflösenden Bildern kosten 9,90 Euro, Fotos mit niedriger Auflösung sind kostenlos. Außerdem können Sie thematisch gebundene Foto-CDs für rund 40 Euro bestellen. - www.photobox.ru Auf der Foto-Website mit englischsprachiger Bedienung müssen Sie für die Bilderrechte je nach Auflösung zwischen 5 und 35 Euro bezahlen. - www.photocase.de Die Fotos ambitionierter Hobbyfotografen liegen in einer Mindestauflösungvon 1800 x1400 Pixeln vor. Downloads sind nach einem Bonuspunktesystem eingeschränkt. - www.pixelquelle.de Alle Bilder lassen sich gratis für kommerzielle wie für nichtkommerzielle Projekte nutzen. Außerdem gibt es eine FotoUpload-FUnktion. - www.sxc.hu Bei der Fototausch-Community für lizenzfreie Bilder kann jeder Besucher eigene Bilder beisteuern und Fotos anderer Anwender herunterladen und nutzen. - www.visipix.ch Die Website bietet Fotoreproduktionen von Gemälden. Insgesamt umfasst der Bestand an Bildern rund 90.000 Aufnahmen. Die meisten Motive sind sowohl für die private als auch für die kommerzielle Nutzung kostenlos. Eine Suchmaschine erleichtert das Aufspüren von Motiven.
  11. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.02
    0.024327358 = product of:
      0.14596415 = sum of:
        0.14596415 = sum of:
          0.042866886 = weight(_text_:web in 5771) [ClassicSimilarity], result of:
            0.042866886 = score(doc=5771,freq=6.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.37471575 = fieldWeight in 5771, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.046875 = fieldNorm(doc=5771)
          0.10309726 = weight(_text_:seite in 5771) [ClassicSimilarity], result of:
            0.10309726 = score(doc=5771,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.52509964 = fieldWeight in 5771, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.046875 = fieldNorm(doc=5771)
      0.16666667 = coord(1/6)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  12. Zurawski, A.: Fit fürs Netz : alles über Suchmaschinen (1997) 0.02
    0.023978097 = product of:
      0.14386858 = sum of:
        0.14386858 = sum of:
          0.046667553 = weight(_text_:web in 7624) [ClassicSimilarity], result of:
            0.046667553 = score(doc=7624,freq=4.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.4079388 = fieldWeight in 7624, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0625 = fieldNorm(doc=7624)
          0.09720103 = weight(_text_:seite in 7624) [ClassicSimilarity], result of:
            0.09720103 = score(doc=7624,freq=2.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.49506867 = fieldWeight in 7624, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0625 = fieldNorm(doc=7624)
      0.16666667 = coord(1/6)
    
    Abstract
    Neben Web-Browsern sind Suchmaschinen die wichtigsten Tools fürs Internet. Ohne sie würden Anbieter von Daten und Surfer oft nur durch Zufall oder Glück zueinander finden. CHIP stellt im zweiten Teil der neuen Serie die 7 wichtigsten Suchdienste (AltaVista, Yahoo, Lycos, Kitty (Flipper), WebCrawler, Web.De, Excite) vor und zeigt, mit welchen Tricks Sie schneller auf der gesuchten Web-Seite landen
  13. Marchiori, M.: ¬The quest for correct information on the Web : hyper search engines (1997) 0.02
    0.023177905 = product of:
      0.06953371 = sum of:
        0.025005683 = product of:
          0.050011367 = sum of:
            0.050011367 = weight(_text_:web in 7453) [ClassicSimilarity], result of:
              0.050011367 = score(doc=7453,freq=6.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.43716836 = fieldWeight in 7453, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7453)
          0.5 = coord(1/2)
        0.04452803 = product of:
          0.06679204 = sum of:
            0.033546906 = weight(_text_:29 in 7453) [ClassicSimilarity], result of:
              0.033546906 = score(doc=7453,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.27205724 = fieldWeight in 7453, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7453)
            0.03324513 = weight(_text_:22 in 7453) [ClassicSimilarity], result of:
              0.03324513 = score(doc=7453,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.2708308 = fieldWeight in 7453, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7453)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Presents a novel method to extract from a web object its hyper informative content, in contrast with current search engines, which only deal with the textual information content. This method is not only valuable per se, but it is shown to be able to considerably increase the precision of current search engines. It integrates with existing search engine technology since it can be implemented on top of every search engine, acting as a post-processor, thus automatically transforming a search engine into its corresponding hyper version. Shows how the hyper information can be usefully employed to face the search engines persuasion problem
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue of papers from the 6th International World Wide Web conference, held 7-11 Apr 1997, Santa Clara, California
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1225-1235
  14. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.02
    0.022755397 = product of:
      0.06826619 = sum of:
        0.065099984 = sum of:
          0.01649947 = weight(_text_:web in 3684) [ClassicSimilarity], result of:
            0.01649947 = score(doc=3684,freq=8.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.14422815 = fieldWeight in 3684, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
          0.048600513 = weight(_text_:seite in 3684) [ClassicSimilarity], result of:
            0.048600513 = score(doc=3684,freq=8.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.24753433 = fieldWeight in 3684, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
        0.0031662032 = product of:
          0.009498609 = sum of:
            0.009498609 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.009498609 = score(doc=3684,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
    Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend.
    Date
    22. 6.2005 9:52:00
  15. Carrière, S.J.; Kazman, R.: Webquery : searching and visualising the Web through connectivity (1997) 0.02
    0.02194578 = product of:
      0.06583734 = sum of:
        0.027670456 = product of:
          0.055340912 = sum of:
            0.055340912 = weight(_text_:web in 2674) [ClassicSimilarity], result of:
              0.055340912 = score(doc=2674,freq=10.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.48375595 = fieldWeight in 2674, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2674)
          0.5 = coord(1/2)
        0.03816688 = product of:
          0.05725032 = sum of:
            0.028754493 = weight(_text_:29 in 2674) [ClassicSimilarity], result of:
              0.028754493 = score(doc=2674,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23319192 = fieldWeight in 2674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2674)
            0.028495826 = weight(_text_:22 in 2674) [ClassicSimilarity], result of:
              0.028495826 = score(doc=2674,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23214069 = fieldWeight in 2674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2674)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    The WebQuery system offers a powerful new method for searching the Web based on connectivity and content. Examines links among the nodes returned in a keyword-based query. Rankes the nodes, giving the highest rank to the most highly connected nodes. By doing so, finds hot spots on the Web that contain information germane to a user's query. WebQuery not only ranks and filters the results of a Web query; it also extends the result set beyond what the search engine retrieves, by finding interesting sites that are highly connected to those sites returned by the original query. Even with WebQuery filering and ranking query results, the result set can be enormous. Explores techniques for visualizing the returned information and discusses the criteria for using each of the technique
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue of papers from the 6th International World Wide Web conference, held 7-11 Apr 1997, Santa Clara, California
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1257-1267
  16. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.02
    0.02119584 = product of:
      0.06358752 = sum of:
        0.050865225 = sum of:
          0.01649947 = weight(_text_:web in 4871) [ClassicSimilarity], result of:
            0.01649947 = score(doc=4871,freq=8.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.14422815 = fieldWeight in 4871, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
          0.034365755 = weight(_text_:seite in 4871) [ClassicSimilarity], result of:
            0.034365755 = score(doc=4871,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.17503321 = fieldWeight in 4871, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
        0.012722294 = product of:
          0.01908344 = sum of:
            0.009584831 = weight(_text_:29 in 4871) [ClassicSimilarity], result of:
              0.009584831 = score(doc=4871,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.07773064 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
            0.009498609 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.009498609 = score(doc=4871,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    31.12.1996 19:29:41
    22. 1.2006 18:34:49
  17. Beuth, P.: Wie Google, nur belesen : Suchmaschine, die sich selbst nicht kennt - Cuil vs. Google (2008) 0.02
    0.02083445 = product of:
      0.062503345 = sum of:
        0.05696249 = sum of:
          0.0144370375 = weight(_text_:web in 6083) [ClassicSimilarity], result of:
            0.0144370375 = score(doc=6083,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.12619963 = fieldWeight in 6083, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6083)
          0.04252545 = weight(_text_:seite in 6083) [ClassicSimilarity], result of:
            0.04252545 = score(doc=6083,freq=2.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.21659255 = fieldWeight in 6083, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6083)
        0.005540855 = product of:
          0.016622566 = sum of:
            0.016622566 = weight(_text_:22 in 6083) [ClassicSimilarity], result of:
              0.016622566 = score(doc=6083,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.1354154 = fieldWeight in 6083, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6083)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Als kleines Internet-Start-Up gleich den Marktführer Google anzugreifen, ist wie barfuß gegen einen Öltanker zu treten: Man kann sich nur wehtun. Umso verwegener ist der Plan, wenn sich das Start-Up unter anderem aus ehemaligen Angestellten von Google zusammensetzt, die es besser wissen müssten. Sie tun es trotzdem. Cuil heißt ihre neue Suchmaschine, was wie "cool" ausgesprochen wird und auf Gälisch so viel wie Wissen bedeutet. Und weil gegen den Branchenprimus nur Klotzen hilft, nennen die Davids gleich mal eine Hausnummer: 120.000.000.000. So viele Seiten will Cuil indiziert haben: 120 Milliarden - und damit nach eigenen Angaben bis zu viermal mehr als Goliath Google. Zudem arbeitet Cuil etwas anders als Google: Die Suchergebnisse werden nicht als lange Linkliste präsentiert, sondern in Spalten geordnet, als Teaser mit Bild. Bewertet wird nicht wie bei Google die Anzahl der Links auf die jeweiligen Treffer, also die Popularität einer Webseite. Vielmehr wird deren gesamter Inhalt von Cuil automatisch durchsucht. Dabei soll die neue Maschine erkennen, ob ein Wort mehrere Bedeutungen hat und als Ergebnis entsprechende Kategorien anbieten. Das beste Argument für einen Gewohnheitswechsel ist jedoch die Datenschutz-Politik der Neulinge: Im Gegensatz zu Google speichert Cuil nicht, über welche IP-Adresse eines Rechners wann und wonach gesucht wurde. "Wir wollen das Web analysieren, nicht die Nutzer", sagen sie. Um bei Google unerfasst zu bleiben, kann der User immerhin einen kleinen Umweg nutzen: die Seite scroogle.org schaltet sich zwischen Nutzer und Google, löscht dessen Cookie und liefert anonymisiert die gewohnten Googletreffer. Der sorgsame Umgang mit Userdaten gehört zu den Alleinstellungsmerkmalen, die die Herausforderer dringend nötig haben. Immerhin beschäftigt Google 20.000 Mitarbeiter und investiert jedes Jahr gewaltige Summen in die Verbesserung seiner Suchtechniken. Zuletzt hat Microsoft deshalb die kleine Firma Powerset und deren halb-semantische Suchmaschine aufgekauft: Powerset versteht simpel formulierte Fragen wie "Wer ist...?" und "Was ist ein...?" und beantwortet sie mit passenden Treffern - durchsucht bislang aber nur Wikipedia und die Datenbank Freebase. Das bringt bei Google keinen um den Schlaf, ist aber ein Vorgeschmack auf künftige Suchmaschinen. Natürlich laboriert auch Cuil noch an Kinderkrankheiten. So sind die Server unter dem ersten Ansturm sofort zusammengebrochen. Zudem zeigt Cuil zu vielen Seiten Bilder, die gar nichts mit dem Treffer zu tun haben. Den bislang entscheidenden Minuspunkt aber gibt es für die schlechten Suchergebnisse: Da tauchen an prominenter Stelle veraltete Seiten und irrelevante Informationen auf, die gesuchten Hauptseiten dafür manchmal gar nicht. Bestes Beispiel ist peinlicherweise Cuil selbst. Der Suchbegriff führt zu Immobilienanzeigen in Irland und Downloads der irischen Band The Chieftains. Umso ärgerlicher für Cuil, dass der alte Tanker Google bereits jede Menge Infos über die neue Konkurrenz ausspuckt."
    Date
    17. 7.1996 9:33:22
  18. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.02
    0.02083445 = product of:
      0.062503345 = sum of:
        0.05696249 = sum of:
          0.0144370375 = weight(_text_:web in 3671) [ClassicSimilarity], result of:
            0.0144370375 = score(doc=3671,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.12619963 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
          0.04252545 = weight(_text_:seite in 3671) [ClassicSimilarity], result of:
            0.04252545 = score(doc=3671,freq=2.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.21659255 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
        0.005540855 = product of:
          0.016622566 = sum of:
            0.016622566 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
              0.016622566 = score(doc=3671,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.1354154 = fieldWeight in 3671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3671)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  19. Behrens, D.: Test: Datei-Newsserver (2004) 0.02
    0.020499518 = product of:
      0.061498553 = sum of:
        0.0575408 = sum of:
          0.01458361 = weight(_text_:web in 2139) [ClassicSimilarity], result of:
            0.01458361 = score(doc=2139,freq=4.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.12748088 = fieldWeight in 2139, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
          0.04295719 = weight(_text_:seite in 2139) [ClassicSimilarity], result of:
            0.04295719 = score(doc=2139,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.21879151 = fieldWeight in 2139, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
        0.003957754 = product of:
          0.011873262 = sum of:
            0.011873262 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
              0.011873262 = score(doc=2139,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.09672529 = fieldWeight in 2139, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2139)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    - Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
  20. Mukherjea, S.; Hirata, K.; Hara, Y.: Towards a multimedia World-Wide Web information retrieval engine (1997) 0.02
    0.019866776 = product of:
      0.059600323 = sum of:
        0.021433443 = product of:
          0.042866886 = sum of:
            0.042866886 = weight(_text_:web in 2678) [ClassicSimilarity], result of:
              0.042866886 = score(doc=2678,freq=6.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.37471575 = fieldWeight in 2678, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2678)
          0.5 = coord(1/2)
        0.03816688 = product of:
          0.05725032 = sum of:
            0.028754493 = weight(_text_:29 in 2678) [ClassicSimilarity], result of:
              0.028754493 = score(doc=2678,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23319192 = fieldWeight in 2678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2678)
            0.028495826 = weight(_text_:22 in 2678) [ClassicSimilarity], result of:
              0.028495826 = score(doc=2678,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23214069 = fieldWeight in 2678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2678)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Describes a search engine that integrate text and image search. 1 or more Web site can be indexed for both textual and image information, allowing the user to search based on keywords or images or both. Another problem with the current search engines is that they show the results as pages of scrolled lists; this is not very user-friendly. The search engine allows the user to visualise to results in various ways. Explains the indexing and searching techniques of the search engine and highlights several features of the querying interface to make the retrieval process more efficient. Use examples to show the usefulness of the technology
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue of papers from the 6th International World Wide Web conference, held 7-11 Apr 1997, Santa Clara, California
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1181-1191

Years

Languages

  • e 418
  • d 307
  • f 4
  • nl 4
  • ja 1
  • sp 1
  • More… Less…

Types

  • a 631
  • el 65
  • m 51
  • s 11
  • x 11
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications