Search (560 results, page 1 of 28)

  • × theme_ss:"Suchmaschinen"
  1. deu: Suchmaschinen gegen den Infostau : Deutsches Forschungsnetz (2001) 0.06
    0.05958822 = product of:
      0.0993137 = sum of:
        0.0327577 = weight(_text_:den in 6725) [ClassicSimilarity], result of:
          0.0327577 = score(doc=6725,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 6725, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6725)
        0.058332358 = weight(_text_:schlagwortkatalog in 6725) [ClassicSimilarity], result of:
          0.058332358 = score(doc=6725,freq=2.0), product of:
            0.19521591 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.036090754 = queryNorm
            0.29880944 = fieldWeight in 6725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6725)
        0.008223643 = product of:
          0.024670927 = sum of:
            0.024670927 = weight(_text_:29 in 6725) [ClassicSimilarity], result of:
              0.024670927 = score(doc=6725,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19432661 = fieldWeight in 6725, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6725)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Content
    "Das Web wuchert. Das Informationsangebot lässt zwar mit Maschinen nach Stichwörtern durchsuchen. Doch die Ergebnisse sind teils ernüchternd oder erschlagend: Die Fundlisten sind lang und trennen nur manchmal die Spreu vom Weizen. Da geben nicht nur Normalnutzer schnell auf. Auch Studierende streichen die Web-Segel. Nur wenige beschaffen sich wissenschaftliche Informationen aus dem Internet, ergab eine Studie der Sozialforschungsstelle an der Universität Dortmund. Zwar grast knapp zwei Drittel des akademischen Nachwuchses das Web mit den üblichen Suchmaschinen ab - durchaus auch nach fachlichen Informationen. Doch es herrscht allgemeine Unzufriedenheit mit den Ergebnissen der Recherchen. Wichtigster Kritikpunkt: ein umfassendes Auflisten aller Treffer ist meist nur hinderlich. Biologen etwa, die nach Veröffentlichungen über Eiweiße suchen, sind weniger an Küchenrezepten mit Eischnee interessiert - die sie aber mitserviert bekommen. Selbst die Recherche nach "Protein ohne Eiweiß", die bei einigen Suchmaschinen möglich ist, führt noch zu einem mittleren Informationsstau. Eine Maschine, die sich in Biologie auskennt und ausschließlich dieses Feld beackert, wäre gut. Im Auftrag des Bildungsministeriums entwickelt der Verein zur Förderung eines Deutschen Forschungsnetzes (DFN) nun solche fachspezifischen Suchmaschinen. Wie üblich, soll die Software unablässig im Netz stöbern - und die Funde nach einem Schlagwortkatalog festgelegten Fachgebieten zuordnen. Anfragen durchstöbern dann nur die entsprechende Sektion. Der Bezug der Dokumente untereinander, die Links auf den Seiten werden zur Bewertung herangezogen. Damit, hoffen die Forscher, sei ein effektives Ranking möglich: Die Dateien, auf die am häufigsten verwiesen wird, landen ganz oben. Die erfolgreiche allgemeine Suchmaschine Google arbeitet nach diesem Prinzip. Das Ministerium zahlt dafür 1,2 Millionen Mark. DFN-Chef Eike Jessen: "Spätestens im Frühjahr 2003 soll die innovative Suchsoftware für die Mitglieder des DFN-Vereins sowie für andere akademische Einrichtungen frei verfügbar sein.""
    Source
    Frankfurter Rundschau. Nr.240 vom 16.10.2001., S.29
  2. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.04
    0.039300375 = product of:
      0.09825093 = sum of:
        0.0327577 = weight(_text_:den in 6566) [ClassicSimilarity], result of:
          0.0327577 = score(doc=6566,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.06549323 = product of:
          0.09823985 = sum of:
            0.049341854 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.049341854 = score(doc=6566,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.048897993 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.048897993 = score(doc=6566,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Content
    Beitrag zu den search engines des Internet
    Date
    22. 2.1997 19:50:29
  3. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.03
    0.0314403 = product of:
      0.07860074 = sum of:
        0.02620616 = weight(_text_:den in 997) [ClassicSimilarity], result of:
          0.02620616 = score(doc=997,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=997)
        0.052394584 = product of:
          0.078591876 = sum of:
            0.03947348 = weight(_text_:29 in 997) [ClassicSimilarity], result of:
              0.03947348 = score(doc=997,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
            0.039118394 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.039118394 = score(doc=997,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Abstract
    "Alle benutzen Google". So läßt sich kurz und prägnant die Entwicklung im Bereich der WWW-Suche in der letzten Zeit auf den Punkt bringen. Durch gute Suchergebnisse und eine schlichte, ausgesprochen gut bedienbare Benutzerschnittstelle hat sich Google als die Suchmaschine für alle Zwecke etabliert. Im Zuge dieser Entwicklung fanden größere Veränderungen auf dem Markt statt: Einige Bewerber mussten ihre Suchwerkzeuge aufgeben, neue Firmen haben dafür die Herausforderung angenommen, dem Benutzer noch bessere Ergebnisse oder wenigsten innovative Features zu bieten
    Date
    29. 9.2002 18:49:22
  4. Wild, F.: Visuelle Verfahren im Information Retrieval (2005) 0.03
    0.030200213 = product of:
      0.050333686 = sum of:
        0.012669483 = product of:
          0.038008448 = sum of:
            0.038008448 = weight(_text_:f in 3182) [ClassicSimilarity], result of:
              0.038008448 = score(doc=3182,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.26422277 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.33333334 = coord(1/3)
        0.02779583 = weight(_text_:den in 3182) [ClassicSimilarity], result of:
          0.02779583 = score(doc=3182,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 3182, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.00986837 = product of:
          0.029605111 = sum of:
            0.029605111 = weight(_text_:29 in 3182) [ClassicSimilarity], result of:
              0.029605111 = score(doc=3182,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    Bislang wird dem Studium bestehender Verfahren in der Visualisierung des Document Retrieval von Suchmaschinen zu wenig Aufmerksamkeit geschenkt. Der vorliegende Beitrag widmet sich dem Studium von acht Systemen und Prototypen, um die best-practice-Auslese und die Identifikation erfolgsrelevanter Features und Element zu erleichtern. Er legt dazu ein Modell für das visuelle Information Retrieval in Suchmaschinen vor, beschreibt und analysiert die ausgewählten Verfahren und deduziert Herausforderungen für künftige Forschungen. Die wichtigsten Erkenntnisse dabei sind, dass zwar zu wenig integrale Systeme existieren, die den gesamten Retrievalprozess integriert visuell unterstützen, die vorhandenen aber bereits (trotz ihrer Unvollständigkeit) einen Ausweg aus der linearen Krise der Ergebnispräsentation textbasierter Suchmaschinen aufzeigen. Wenngleich noch nicht alle Informationsbedürfnisse von den untersuchten Verfahren erfüllt werden, so zeichnet sich doch ab, dass insbesondere durch die Innovation von Interaktions- und Manipulationsformen neue Wege beschritten werden, die sich auf Effektivität und Effizienz derRetrievalverfahren auswirken.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.29-34
  5. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.03
    0.029534733 = product of:
      0.04922455 = sum of:
        0.014781064 = product of:
          0.044343192 = sum of:
            0.044343192 = weight(_text_:f in 3189) [ClassicSimilarity], result of:
              0.044343192 = score(doc=3189,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.3082599 = fieldWeight in 3189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3189)
          0.33333334 = coord(1/3)
        0.02293039 = weight(_text_:den in 3189) [ClassicSimilarity], result of:
          0.02293039 = score(doc=3189,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 3189, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
        0.011513098 = product of:
          0.034539293 = sum of:
            0.034539293 = weight(_text_:29 in 3189) [ClassicSimilarity], result of:
              0.034539293 = score(doc=3189,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.27205724 = fieldWeight in 3189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3189)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
    Date
    12. 2.2005 18:29:36
  6. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.03
    0.027714891 = product of:
      0.069287226 = sum of:
        0.016892646 = product of:
          0.050677933 = sum of:
            0.050677933 = weight(_text_:f in 1770) [ClassicSimilarity], result of:
              0.050677933 = score(doc=1770,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.35229704 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.33333334 = coord(1/3)
        0.052394584 = product of:
          0.078591876 = sum of:
            0.03947348 = weight(_text_:29 in 1770) [ClassicSimilarity], result of:
              0.03947348 = score(doc=1770,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
            0.039118394 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.039118394 = score(doc=1770,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Date
    23.10.1996 17:26:29
    22. 3.2008 14:04:11
  7. Courtois, M.P.: Cool tools for searching the Web : an update (1996) 0.03
    0.02755479 = product of:
      0.06888697 = sum of:
        0.04586078 = weight(_text_:den in 5667) [ClassicSimilarity], result of:
          0.04586078 = score(doc=5667,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.4433424 = fieldWeight in 5667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.109375 = fieldNorm(doc=5667)
        0.023026196 = product of:
          0.06907859 = sum of:
            0.06907859 = weight(_text_:29 in 5667) [ClassicSimilarity], result of:
              0.06907859 = score(doc=5667,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.5441145 = fieldWeight in 5667, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5667)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Darstellung zu den search engines für die inhaltliche Suche nach Angeboten im Internet
    Source
    Online. 20(1996) no.3, S.29-36
  8. tw: Power-Sucher für Power-Surfer : Fireball (1997) 0.03
    0.02755479 = product of:
      0.06888697 = sum of:
        0.04586078 = weight(_text_:den in 357) [ClassicSimilarity], result of:
          0.04586078 = score(doc=357,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.4433424 = fieldWeight in 357, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.109375 = fieldNorm(doc=357)
        0.023026196 = product of:
          0.06907859 = sum of:
            0.06907859 = weight(_text_:29 in 357) [ClassicSimilarity], result of:
              0.06907859 = score(doc=357,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.5441145 = fieldWeight in 357, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=357)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das deutsche Web hat eine neue Vorzeigeadresse: Fireball - den Websucher der Superlative
    Date
    1. 8.1997 14:03:29
  9. Sherman, C.: ¬The future of Web search (1999) 0.03
    0.02755479 = product of:
      0.06888697 = sum of:
        0.04586078 = weight(_text_:den in 4796) [ClassicSimilarity], result of:
          0.04586078 = score(doc=4796,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.4433424 = fieldWeight in 4796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.109375 = fieldNorm(doc=4796)
        0.023026196 = product of:
          0.06907859 = sum of:
            0.06907859 = weight(_text_:29 in 4796) [ClassicSimilarity], result of:
              0.06907859 = score(doc=4796,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.5441145 = fieldWeight in 4796, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4796)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Trendbericht über die Entwicklungen bei den Suchdiensten des Internet
    Date
    1. 6.2000 14:29:46
  10. Hüskes, R.; Kleber, D.: ¬Den Server im Griff (1999) 0.03
    0.025050286 = product of:
      0.06262571 = sum of:
        0.04632638 = weight(_text_:den in 4008) [ClassicSimilarity], result of:
          0.04632638 = score(doc=4008,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.44784343 = fieldWeight in 4008, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=4008)
        0.016299332 = product of:
          0.048897993 = sum of:
            0.048897993 = weight(_text_:22 in 4008) [ClassicSimilarity], result of:
              0.048897993 = score(doc=4008,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.38690117 = fieldWeight in 4008, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4008)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Ausgereifte Suchfunktionen auf dem eigenen Webserver sind wichtiger der je. Dabei ist es gar nicht schwer, eine eigene Suchfunktion in den Server zu integrieren
    Date
    22. 8.1999 21:21:10
  11. Kiefer, A.: ¬Die Googlewhacker (2002) 0.02
    0.022198668 = product of:
      0.05549667 = sum of:
        0.029299377 = weight(_text_:den in 262) [ClassicSimilarity], result of:
          0.029299377 = score(doc=262,freq=10.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.28324106 = fieldWeight in 262, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=262)
        0.026197292 = product of:
          0.039295938 = sum of:
            0.01973674 = weight(_text_:29 in 262) [ClassicSimilarity], result of:
              0.01973674 = score(doc=262,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15546128 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
            0.019559197 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.019559197 = score(doc=262,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Content
    "Wenn alle Moorhühner erschossen sind, werdet Ihr merken, dass man online noch viel schöner daddeln kann: nämlich mit Internet-Suchmaschinen. Wer sagt, dass der anarchische Geist der Online-Gründerzeit vorbei ist? Kaum hatten wir uns daran gewöhnt, dass das schöne, knallbunte Unterhaltungsmedium richtig seriös werden wollte - Schluss mit portofreiem Buchhandel, kostenlosen SMS und Umsonst-Archiven, da hält ein Grüppchen computerverrückterAmerikaner die Independent-Flag-ge hoch. Ihr Angriff zielt auf die lkone der neuen Seriosität, den Buchhalter unter den Internetseiten: die Suchmaschine. Denn die eignet sich nicht nur für trockene Infos und ernsthafte Arbeit. Die einfache wie geniale Idee aus den USA: Man liefere der Suchmaschine zwei Wörter, die so wenig wie möglich zusammenpassen, und erziele exakt einen Treffer. Nicht mehr, nicht weniger. Bei über drei Milliarden Internetseiten ist der Auftrag schwieriger, als es klingt. Treffer landeten etwa die Kombinationen "Neanderthal Polygamisten" und "versteinertes Mannequin". Wie und wo die Idee des Suchmaschinenspiels geboren wurde, weiß niemand. Computerveteran Gary Stock kann immerhin für sich in Anspruch nehmen, einen Namen für das Baby gefunden zu haben. Nach einer der beliebtesten Suchmaschinen heißt der Spaß "Googlewhacking" (etwa: hau den Google). Stock baute eine Homepage für seine Mitspieler und stellte ein paar simple Regeln auf: keine Fantasiewörter, keine Zitate, Wortlisten wie etwa in einem Lexikon zählen nicht als Treffer. Mit der Einführung der Online-Bestenliste fing dann das Unglück an. Die Suchsüchtigen wollten nicht einfach mit tausenden Mitspielern auf einer Liste stehen. Stattdessen entwickelten findige Whacker ein Punktesystem, bei dem bestimmte Treffer besser gewertet werden als andere. Ab sofort ging es um Höheres, um Punkte auf der Bestenliste: Für einen Platz an der Spitze schreckten einige Whacker nicht einmal vor "bestimmten Wörtern" zurück, "die von einem großen Teil der Bevölkerung als extrem anstößig empfunden werden", klagte eine Internetseite. Schließlich musste eine Zensur der Liste her. Der heiße Atem des Establishments hat das anarchische Vergnügen also fast wieder erreicht. Wenigstens die Erfinder nehmen das Abdriften in den Mainstream mit Humor. Mit einem Augenzwinkern geben sie die sinnlose Mission an eine höhere Instanz ab: "Wir sind auf der Suche nach Dem Einen Einzigen."
    Date
    20. 3.2002 10:28:22
    Source
    Frankfurter Rundschau. Nr.66 vom 19.3.2002, S.29
  12. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.02
    0.022140441 = product of:
      0.0553511 = sum of:
        0.03242847 = weight(_text_:den in 1333) [ClassicSimilarity], result of:
          0.03242847 = score(doc=1333,freq=16.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31349042 = fieldWeight in 1333, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.022922631 = product of:
          0.034383945 = sum of:
            0.017269647 = weight(_text_:29 in 1333) [ClassicSimilarity], result of:
              0.017269647 = score(doc=1333,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.13602862 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
            0.017114297 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.017114297 = score(doc=1333,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
    6. 2.2009 10:29:08
  13. Schulz, W.; Held, T.: ¬Der Index auf dem Index? : Selbstzensur und Zensur bei Suchmaschinen (2007) 0.02
    0.02130609 = product of:
      0.053265225 = sum of:
        0.03930924 = weight(_text_:den in 374) [ClassicSimilarity], result of:
          0.03930924 = score(doc=374,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38000777 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=374)
        0.013955984 = product of:
          0.041867953 = sum of:
            0.041867953 = weight(_text_:29 in 374) [ClassicSimilarity], result of:
              0.041867953 = score(doc=374,freq=4.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.3297832 = fieldWeight in 374, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=374)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Suchmaschinen gelten als Gatekeeper in der öffentlichen Kommunikation. Zumindest für bestimmte Typen von Seitenaufrufen stellen Suchmaschinen den mit Abstand häufigsten Weg des Zugangs zu Internet-Inhalten dar. Deshalb können Beeinflussungen des Index von Suchmaschinen oder der Algorithmen, die die Ergebnislisten steuern, als hochsensibler Eingriff in die Internet-basierte Kommunikation angesehen werden. Dies lenkt die Aufmerksamkeit auf die >Policies< der Suchmaschinenanbieter, auch im Hinblick auf externe Anforderungen, die etwa von Nationalstaaten an sie gerichtet werden. Vor allem der Anbieter Google ist in die Kritik geraten, weil er in seinem Angebot in China Seiten aus dem Index löscht, die von der chinesischen Regierung als staatsgefährdend angesehen werden. Google beruft sich darauf, nur die dortigen Gesetze zu befolgen. Auch in Deutschland werden Seiten gefiltert. In der Internetgemeinde ist dann schnell das Wort >Zensur< zu hören. Im Folgenden soll der Frage nachgegangen werden, wann nach deutschem Verständnis von Zensur gesprochen werden kann. Dabei soll deutlich werden, wo Unterschiede in den nationalstaatlichen Politiken, aber auch bei den Kooperationen der Suchmaschinenanbieter mit den Nationalstaaten bestehen.
    Date
    13. 5.2007 10:29:29
  14. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.02
    0.02130609 = product of:
      0.053265225 = sum of:
        0.03930924 = weight(_text_:den in 378) [ClassicSimilarity], result of:
          0.03930924 = score(doc=378,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38000777 = fieldWeight in 378, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
        0.013955984 = product of:
          0.041867953 = sum of:
            0.041867953 = weight(_text_:29 in 378) [ClassicSimilarity], result of:
              0.041867953 = score(doc=378,freq=4.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.3297832 = fieldWeight in 378, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=378)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Suchmaschinen bilden den bedeutendsten Zugang zu den im World Wide Web verfügbaren Informationen und haben andere Zugänge zu diesem Informationsbestand (wie etwa Internetverzeichnisse) weitgehend verdrängt. Der Suchmaschinenmarkt ist stark konzentriert; nur wenige Anbieter mit eigener Technologie bieten selbst Endnutzerlösungen an und lizenzieren ihre Technologie an die bekannten Web-Portale wie AOL oder T-Online. Die im vorliegenden Kapitel dargestellten Kennzahlen zur Messung der Qualität von Suchmaschinen basieren einerseits auf Erkenntnissen über den State of the Art der Suchmaschinentechnologie, andererseits stehen sie im Kontext eines umfassenderen Modells der Qualitätsmessung für Web-Suchmaschinen. Die besondere Bedeutung von Erkenntnissen über die Qualität der bestehenden Suchmaschinen ergibt sich einerseits aus ihrer Bedeutung für die Weiterentwicklung der Suchmaschinentechnologie. Qualitätsuntersuchungen geben Hinweise auf die Schwachstellen der Suchmaschinen im Allgemeinen und die ihrer Ranking-Algorithmen im Besonderen. Letztere sind als zentral für die Ergebnisqualität anzusehen und bilden den >Kern< der technologischen Leistungsfähigkeit einer jeden Suchmaschine.
    Date
    13. 5.2007 10:29:29
  15. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.02
    0.020450454 = product of:
      0.051126134 = sum of:
        0.0397166 = weight(_text_:den in 3276) [ClassicSimilarity], result of:
          0.0397166 = score(doc=3276,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.3839458 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.011409531 = product of:
          0.034228593 = sum of:
            0.034228593 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.034228593 = score(doc=3276,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
  16. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.02
    0.02028986 = product of:
      0.05072465 = sum of:
        0.031076683 = weight(_text_:den in 2617) [ClassicSimilarity], result of:
          0.031076683 = score(doc=2617,freq=20.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.30042252 = fieldWeight in 2617, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2617)
        0.019647969 = product of:
          0.029471952 = sum of:
            0.014802556 = weight(_text_:29 in 2617) [ClassicSimilarity], result of:
              0.014802556 = score(doc=2617,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.11659596 = fieldWeight in 2617, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2617)
            0.014669397 = weight(_text_:22 in 2617) [ClassicSimilarity], result of:
              0.014669397 = score(doc=2617,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.116070345 = fieldWeight in 2617, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2617)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Content
    "Das Internet hat eine eigene Zeitrechnung. Alles geht rasend schnell. Mit Leuten, die im Netz Geschäfte machen, sei das ähnlich wie mit Hunden, hat Jerry Yang, der Gründer von Yahoo, einmal gesagt. Bei denen setzt man ein Lebensjahr mit sieben Menschenjahren gleich. Würde man denselben Faktor in der Internet-Branche verwenden, dann wäre Yang nicht 39 Jahre alt, sondern 273. Er ist also seit Ewigkeiten in dem Geschäft unterwegs. 1994, als das Internet nicht mehr als ein wirres Seitensammelsurium war, beschloss er mit seinem Studienkollegen David Filo, Ordnung in das Webwirrwarr zu bringen. Eine geniale Idee, wie sich zuletzt zeigte, denn Mircrosoft hat in der vergangenen Woche 44,6 Milliarden US-Dollar für die Übernahme von Yahoo geboten. In einer am Mittwoch veröffentlichten Email schrieb Yang, dass der Yahoo-Verwaltungsrat nach wie vor eine breite Palette möglicher strategischer Alternativen prüfe. Dies benötige ausreichend Zeit. Der Verhandlungspoker ist also eröffnet. Rückkehr an die Firmenspitze Yang und sein Partner Filo katalogisierten in der Anfangszeit die vorhandenen Internetseiten und wurden zu einem der erfolgreichsten Start-ups der 90er Jahre. Selbstbewusst setzten sie hinter den Firmennamen ein Ausrufezeichen. Mit Google kam aber irgendwann ein anderer Mechanismus der Internetsuche auf den Markt, wirtschaftlich überholte der Konkurrent Yahoo. Yang und Filo erlebten seitdem einige wirtschaftlich unruhige Zeiten. Zuletzt ging es eher bergab. Auf dem entscheidenden Online-Werbemarkt steht Google deutlich besser da. Software-Riese Microsoft will mit der Übernahme von Yahoo die Macht von Google brechen.
    Als Yang vor einigen Tagen auf einer Konferenz die Neuentwicklungen für Mobiltelefone vorstellte, stand er lange alleine auf der Bühne. Seinen blassen Kompagnon Filo holte er erst am Ende kurz dazu. Yang, gewohnt leger im blauen Pulli mit V-Ausschnitt und beiger Hose, begann seinen Vortrag mit einem Scherz: "Sie wollen den neuen Look von Yahoo sehen, das neue Gesicht. Ich werde Sie enttäuschen müssen. Es ist immer noch das alte." Nämlich seines. Er ist der Mann fürs Rampenlicht, zumindest wenn es sein muss. Im vergangenen Jahr hat Yang im Konzern wieder die Leitung übernommen. Der vorherige Chef wechselte wegen der schwachen Börsenkurse in den Aufsichtsrat. Den Titel "Chief Yahoo!" hatte der gebürtige Taiwanese ohnehin nie abgelegt. Das Silicon Valley gehört zu seiner Erfolgsgeschichte wie sein Lebenslauf. Mit seiner Mutter und seinem Bruder kam er im Alter von zehn Jahren im kalifornischen San José an, der selbsternannten Hauptstadt des High-Tech-Tals, in dem die Start-up-Millionäre wohnen. Apple, Ebay, Google, alle haben in dieser Gegend angefangen. Als Yang nach San José kam, soll er nur ein englisches Wort gekannt haben: Shoes. Er lernte schnell andere Wörter dazu, in der Schule war er ein Mathe-Ass. Und obwohl Stanford erklärte, ihn finanziell nicht umfangreich mit Stipendien unterstützen zu können, beschloss er, genau dort, auf dem Campus im Silicon Valley, sein Studium zu beginnen. Während seiner Promotion legte er zusammen mit David Filo ein Netzverzeichnis an, das sie "Jerry's Guide to the World Wide Web" nannten. Schon da stand sein Name im Vordergrund. Die Büros der beiden waren klein und recht unordentlich, aber bei Yang lagen zwischen den Büchern und Zetteln immerhin keine T-Shirts und dreckigen Socken wie bei Filo. Wahrscheinlich haben all diese Anekdoten dem Image der beiden eher geholfen als geschadet, jedenfalls bekamen sie eine Million Dollar von einem Wagnis-Kapital-Geber. Als sie wenig später an die Börse gingen, stieg der Kurs am ersten Tag um 154 Prozent. Ihre kleine Firma war trotz der überschaubaren Umsätze plötzlich 800 Millionen Dollar wert. Yang ließ seine Promotion ruhen. Bis heute. Trotzdem ist er alles andere als ein lässiger Abhänger. Er war immer smart, strebsam und arbeitete, wenn es sein musste, Tag und Nacht. Damit erfüllte er in den Jahren des Internet-Booms jenes Klischee, das asiatischen Einwanderern nachgesagt wurde. Nur hatte das jetzt keinen negativen Touch mehr. "Sie sind so etwas wie die Helden der Jahrhundertwende", schrieb das Time Magazin über erfolgreiche asiatische Einwanderer. Ein Beispiel: Jerry Yang.
    Daten in China weitergegeben Erfolgsorientierung allerdings hat den Finanzriesen Yahoo ausgerechnet in China nach Ansicht eines US-Politikers zu einem "moralischen Pygmäen" gemacht. Weil Yahoo belastende Informationen an die chinesische Regierung weitergegeben hatte, standen zwei Dissidenten vor Gericht. Im feinen, dunkelblauen Nadelstreifenanzug und ohne sein übliches Lächeln trat Yang im November bei einem Gerichtstermin vor die Mutter eines Verhafteten und verbeugte sich vor ihr. Aber geholfen hat sein Auftritt den Angeklagten nicht. Am Ende des Prozesses wurden die beiden Männer zu jeweils zehn Jahren Haft verurteilt. Das Vermögen des leidenschaftlichen Golfspielers wird heute auf 2,2 Milliarden Dollar geschätzt. 75 Millionen davon hat er im vergangenen Jahr der Stanford-Universität gespendet. Wie viele andere Einwanderer mit Wurzeln in China, die in den USA zu Millionären oder Milliardären geworden sind, würde er damit die Bedeutung der Uni als Karriereleiter unterstreichen, stellte die New York Times fest. Er ist auf dieser Leiter sehr hoch geklettert. Vielleicht reicht es gemeinsam mit Microsoft noch für ein paar mehr Sprossen. In Richtung Google."
    Date
    5. 1.1997 9:39:22
    9. 2.2008 9:29:21
  17. Hoboken, J. van: Suchmaschinen-Gesetzgebung und die Frage der Ausdrucksfreiheit : Eine europäische Perspektive (2009) 0.02
    0.020271093 = product of:
      0.05067773 = sum of:
        0.010557904 = product of:
          0.03167371 = sum of:
            0.03167371 = weight(_text_:f in 21) [ClassicSimilarity], result of:
              0.03167371 = score(doc=21,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.22018565 = fieldWeight in 21, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=21)
          0.33333334 = coord(1/3)
        0.040119827 = weight(_text_:den in 21) [ClassicSimilarity], result of:
          0.040119827 = score(doc=21,freq=12.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38784382 = fieldWeight in 21, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=21)
      0.4 = coord(2/5)
    
    Abstract
    Eine typische Darstellung der Herausforderungen der Ausdrucksfreiheit im Zusammenhang mit Suchmaschinen beginnt mit einer Diskussion der Internet-Zensur in China und in anderen Ländern, die keine Tradition der Ausdrucksfreiheit und einer freien Presse haben. Daher ist die Unterdrückung von Suchergebnissen durch globale Suchmaschinenanbieter in China gut dokumentierte und Gegenstand breiter medialer Aufrnerksamkeit. Im europäischen Kontext ist die Debatte über die Implikationen der Ausdrucksfreiheit für gesetzliche Regelungen und Politiken im Zusammenhang mit Suchmaschinen dagegen weit weniger entwickelt. Dies ist bedauerlich, denn es gibt eine Reihe von Problemen, die eine solche Debatte rechtfertigen würden. Bevor ich diese Probleme im Einzelnen behandle, erscheint es nützlich, einige Beispiele voranzustellen. In den vergangenen zwei Jahren hat der argentinische Anwalt Martin Leguizamon Gerichtsbeschlüsse erwirkt, die es über hundert Menschen ermöglichten, Suchergebnisse von Google und Yahoo entfernen zu lassen Einige der Gerichtsbeschlüsse bezogen sich auf Suchergebnisse zu öffentlichen Funktionären. Doch wenn Demokratie und Ausdrucksfreiheit irgendetwas bedeuten sollen, dann ist wohl die Möglichkeit, sich über öffentliche Funktionäre zu informieren, eine Voraussetzung dafür. Google hat deshalb seine ablehnende Haltung gegenüber den argentinischen Gesetzen öffentlich kundgetan und gegen die Gerichtsbescheide Berufung eingelegt. Interessant ist in diesem Fall, dass Google dabei auf den Schutz Bezug nimmt, den es in Europa genießt. Doch leider ist diese Bezugnahme falsch. In den meisten europäischen Ländern erhalten Suchmaschinenanbieter keinen klaren gesetzlichen Schutz gegen Forderungen, aus den Suchergebnissen entfernt zu werden, und sie kämpfen mit ähnlichen Problemen wie in Argentinien.
    Source
    Deep Search: Politik des Suchens jenseits von Google; Deep Search-Konferenz, Wien, 2008.11.08; eine Veröffentlichung des World-Information Institute. Hrsg.: K. Becker u. F. Stalder
  18. Peters, I.: Folksonomies und kollaborative Informationsdienste : eine Alternative zur Websuche? (2011) 0.02
    0.020087574 = product of:
      0.050218932 = sum of:
        0.037061106 = weight(_text_:den in 343) [ClassicSimilarity], result of:
          0.037061106 = score(doc=343,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.35827476 = fieldWeight in 343, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
        0.013157828 = product of:
          0.03947348 = sum of:
            0.03947348 = weight(_text_:29 in 343) [ClassicSimilarity], result of:
              0.03947348 = score(doc=343,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 343, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=343)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Folksonomies ermöglichen den Nutzern in Kollaborativen Informationsdiensten den Zugang zu verschiedenartigen Informationsressourcen. In welchen Fällen beide Bestandteile des Web 2.0 am besten für das Information Retrieval geeignet sind und wo sie die Websuche ggf. ersetzen können, wird in diesem Beitrag diskutiert. Dazu erfolgt eine detaillierte Betrachtung der Reichweite von Social-Bookmarking-Systemen und Sharing-Systemen sowie der Retrievaleffektivität von Folksonomies innerhalb von Kollaborativen Informationsdiensten.
    Pages
    S.29-53
  19. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.02
    0.019991092 = product of:
      0.04997773 = sum of:
        0.043458 = weight(_text_:den in 2403) [ClassicSimilarity], result of:
          0.043458 = score(doc=2403,freq=22.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.4201144 = fieldWeight in 2403, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
              0.019559197 = score(doc=2403,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 2403, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2403)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  20. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.02
    0.019714221 = product of:
      0.032857034 = sum of:
        0.0042231614 = product of:
          0.012669483 = sum of:
            0.012669483 = weight(_text_:f in 3684) [ClassicSimilarity], result of:
              0.012669483 = score(doc=3684,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.08807426 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.33333334 = coord(1/3)
        0.025374006 = weight(_text_:den in 3684) [ClassicSimilarity], result of:
          0.025374006 = score(doc=3684,freq=30.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.24529397 = fieldWeight in 3684, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.0032598663 = product of:
          0.009779599 = sum of:
            0.009779599 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.009779599 = score(doc=3684,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
    Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend.
    Date
    22. 6.2005 9:52:00

Years

Languages

  • d 397
  • e 159
  • f 4
  • nl 1
  • More… Less…

Types

  • a 472
  • el 54
  • m 42
  • s 10
  • x 10
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications