Search (1057 results, page 1 of 53)

  • × theme_ss:"Suchmaschinen"
  1. Bertelmann, R.; Rusch-Feja, D.: Informationsretrieval im Internet : Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote (1997) 0.06
    0.060444716 = product of:
      0.12088943 = sum of:
        0.07601224 = weight(_text_:da in 217) [ClassicSimilarity], result of:
          0.07601224 = score(doc=217,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0546875 = fieldNorm(doc=217)
        0.044877194 = sum of:
          0.004389609 = weight(_text_:a in 217) [ClassicSimilarity], result of:
            0.004389609 = score(doc=217,freq=2.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.089176424 = fieldWeight in 217, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0546875 = fieldNorm(doc=217)
          0.040487584 = weight(_text_:22 in 217) [ClassicSimilarity], result of:
            0.040487584 = score(doc=217,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.2708308 = fieldWeight in 217, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Abstract
    Das gezielte Suchen im Internet findet in erster Linie mit Hilfe der Suchmaschinen statt. Daneben gibt es aber bereits eine Fülle von strukturierten Informationsangeboten, aufbereiteten Listen und Sammelstellen, die als Clearinghouse, Subject Gateway, Subject Tree oder Resource Pages bezeichnet werden. Solche intellektuell erstellten Übersichten geben in der Regel bereits Hinweise zu Inhalt und fachlichem Niveau der Quelle. Da die Art und Weise der Aufbereitung bei den Sammelstellen sehr unterschiedlich funktioniert, ist die Kenntnis ihrer Erschließungskriterien für ein erfolgreiches Retrieval unverzichtbar
    Date
    9. 7.2000 11:31:22
    Type
    a
  2. Hoffmann, U.: Jeeves und die schlaue Nuss finden (fast) alles! (2002) 0.06
    0.055862173 = product of:
      0.11172435 = sum of:
        0.10858891 = weight(_text_:da in 955) [ClassicSimilarity], result of:
          0.10858891 = score(doc=955,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.5301281 = fieldWeight in 955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.078125 = fieldNorm(doc=955)
        0.0031354348 = product of:
          0.0062708696 = sum of:
            0.0062708696 = weight(_text_:a in 955) [ClassicSimilarity], result of:
              0.0062708696 = score(doc=955,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.12739488 = fieldWeight in 955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=955)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Was nützt die Wahrheit, wenn sie irgendwo da draußen ist? Neben den üblichen chaotischen Suchmaschinen gibt es zum Glück ein paar ausgebuffte Spezialisten
    Type
    a
  3. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.05
    0.04701101 = product of:
      0.09402202 = sum of:
        0.09214076 = weight(_text_:da in 389) [ClassicSimilarity], result of:
          0.09214076 = score(doc=389,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.44982868 = fieldWeight in 389, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 389) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=389,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 389, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
    Type
    a
  4. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.04
    0.03917584 = product of:
      0.07835168 = sum of:
        0.07678396 = weight(_text_:da in 1888) [ClassicSimilarity], result of:
          0.07678396 = score(doc=1888,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.37485722 = fieldWeight in 1888, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1888)
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 1888) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=1888,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 1888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1888)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
    Type
    a
  5. Sander-Beuermann, W.: Findemaschinen: Level3 : Themenorientierte Suchmaschinen (1998) 0.04
    0.039103523 = product of:
      0.078207046 = sum of:
        0.07601224 = weight(_text_:da in 2901) [ClassicSimilarity], result of:
          0.07601224 = score(doc=2901,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 2901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2901)
        0.0021948046 = product of:
          0.004389609 = sum of:
            0.004389609 = weight(_text_:a in 2901) [ClassicSimilarity], result of:
              0.004389609 = score(doc=2901,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.089176424 = fieldWeight in 2901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2901)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Ohne Suchmaschinen ist das WWW kaum noch die Hälfte wert. die Crux mit den Suchmaschinen kennt trotzdem jeder: Entweder das Gesuchte ist auf der gewählten Suchmaschine (zufällig?) gerade nicht erfaßt, oder Suchende werden von der Menge des Gefundenen 'erschlagen' - wesentlich mehr als 100 'Treffer' sind sinnlos, da unüberschaubar. Die Forderungen an eine hochwertige Suche müssen daher heißen: Die Suchmaschine muß ein definiertes Gebiet vollständig absuchen, und die Ergebnisse müssen für Suchende qualitativ hochwertig sein. Das vollständige Absuchen darf dabei trotzdem nicht zu unüberschaubar langen Trefferlisten führen. Die Kombination dieser beiden Forderungen wird in einem Teilbereich des DFN-Expo Projektes unter dem Stichwort 'Level3' untersucht. Level3 erlaubt die Generierung spezieller Suchmaschinen für definierte, thematisch eingegrenzte Sachgebiete
    Type
    a
  6. Stock, W.G.: Verkaufte Suchwörter, verkaufte Links : Retrieval nach Homepages optimiert? (1999) 0.04
    0.039103523 = product of:
      0.078207046 = sum of:
        0.07601224 = weight(_text_:da in 4142) [ClassicSimilarity], result of:
          0.07601224 = score(doc=4142,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 4142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4142)
        0.0021948046 = product of:
          0.004389609 = sum of:
            0.004389609 = weight(_text_:a in 4142) [ClassicSimilarity], result of:
              0.004389609 = score(doc=4142,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.089176424 = fieldWeight in 4142, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4142)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Selten wurde ein Dienst so stark diskutiert wie 'RealNames', da sowohl seine Suchwörter als auch die darauf aufsetzenden Links auf Homepages verkauft werden. Machen wir uns doch nichts vor: Das WWW ist ein kommerzielles Unternehmen, die Dienstleistungen müssen finanziert werden. Und warum soll nicht ein Privatunternehmen mit Inhaltserschließung Gewinne erzielen? RealNames mit seinem 'Internet Keyword System' ist eine interessante Idee, das Retrieval nach Homepages zielgenau durchzuführen. Was bringt RealNames den Nutzern? Wann sollte jemand, der Sites im WWW unterhält, Suchwörter und Links bei RealNames abonnieren (und was kostet das)? Im Oktober 1999 haben wir RealNames genauer angeschaut. Analysiert wurde das gezielte Retrieval nach Homepages bei AltaVista, Fireball und bei RealNames.com
    Type
    a
  7. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.04
    0.038093686 = product of:
      0.07618737 = sum of:
        0.053748775 = weight(_text_:da in 5114) [ClassicSimilarity], result of:
          0.053748775 = score(doc=5114,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.26240006 = fieldWeight in 5114, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.022438597 = sum of:
          0.0021948046 = weight(_text_:a in 5114) [ClassicSimilarity], result of:
            0.0021948046 = score(doc=5114,freq=2.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.044588212 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
          0.020243792 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
            0.020243792 = score(doc=5114,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.1354154 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
      0.5 = coord(2/4)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46
    Type
    a
  8. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.04
    0.035782985 = product of:
      0.07156597 = sum of:
        0.06780345 = product of:
          0.20341034 = sum of:
            0.20341034 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.20341034 = score(doc=2514,freq=2.0), product of:
                0.3619285 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04269026 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.0037625222 = product of:
          0.0075250445 = sum of:
            0.0075250445 = weight(_text_:a in 2514) [ClassicSimilarity], result of:
              0.0075250445 = score(doc=2514,freq=8.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.15287387 = fieldWeight in 2514, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In this paper, we present two ways to improve the precision of HITS-based algorithms onWeb documents. First, by analyzing the limitations of current HITS-based algorithms, we propose a new weighted HITS-based method that assigns appropriate weights to in-links of root documents. Then, we combine content analysis with HITS-based algorithms and study the effects of four representative relevance scoring methods, VSM, Okapi, TLS, and CDR, using a set of broad topic queries. Our experimental results show that our weighted HITS-based method performs significantly better than Bharat's improved HITS algorithm. When we combine our weighted HITS-based method or Bharat's HITS algorithm with any of the four relevance scoring methods, the combined methods are only marginally better than our weighted HITS-based method. Between the four relevance scoring methods, there is no significant quality difference when they are combined with a HITS-based algorithm.
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
    Type
    a
  9. Kiefer, A.: ¬Die Googlewhacker (2002) 0.04
    0.035059333 = product of:
      0.070118666 = sum of:
        0.043435566 = weight(_text_:da in 262) [ClassicSimilarity], result of:
          0.043435566 = score(doc=262,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.21205126 = fieldWeight in 262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=262)
        0.026683103 = sum of:
          0.00354734 = weight(_text_:a in 262) [ClassicSimilarity], result of:
            0.00354734 = score(doc=262,freq=4.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.072065435 = fieldWeight in 262, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.03125 = fieldNorm(doc=262)
          0.023135763 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
            0.023135763 = score(doc=262,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.15476047 = fieldWeight in 262, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=262)
      0.5 = coord(2/4)
    
    Content
    "Wenn alle Moorhühner erschossen sind, werdet Ihr merken, dass man online noch viel schöner daddeln kann: nämlich mit Internet-Suchmaschinen. Wer sagt, dass der anarchische Geist der Online-Gründerzeit vorbei ist? Kaum hatten wir uns daran gewöhnt, dass das schöne, knallbunte Unterhaltungsmedium richtig seriös werden wollte - Schluss mit portofreiem Buchhandel, kostenlosen SMS und Umsonst-Archiven, da hält ein Grüppchen computerverrückterAmerikaner die Independent-Flag-ge hoch. Ihr Angriff zielt auf die lkone der neuen Seriosität, den Buchhalter unter den Internetseiten: die Suchmaschine. Denn die eignet sich nicht nur für trockene Infos und ernsthafte Arbeit. Die einfache wie geniale Idee aus den USA: Man liefere der Suchmaschine zwei Wörter, die so wenig wie möglich zusammenpassen, und erziele exakt einen Treffer. Nicht mehr, nicht weniger. Bei über drei Milliarden Internetseiten ist der Auftrag schwieriger, als es klingt. Treffer landeten etwa die Kombinationen "Neanderthal Polygamisten" und "versteinertes Mannequin". Wie und wo die Idee des Suchmaschinenspiels geboren wurde, weiß niemand. Computerveteran Gary Stock kann immerhin für sich in Anspruch nehmen, einen Namen für das Baby gefunden zu haben. Nach einer der beliebtesten Suchmaschinen heißt der Spaß "Googlewhacking" (etwa: hau den Google). Stock baute eine Homepage für seine Mitspieler und stellte ein paar simple Regeln auf: keine Fantasiewörter, keine Zitate, Wortlisten wie etwa in einem Lexikon zählen nicht als Treffer. Mit der Einführung der Online-Bestenliste fing dann das Unglück an. Die Suchsüchtigen wollten nicht einfach mit tausenden Mitspielern auf einer Liste stehen. Stattdessen entwickelten findige Whacker ein Punktesystem, bei dem bestimmte Treffer besser gewertet werden als andere. Ab sofort ging es um Höheres, um Punkte auf der Bestenliste: Für einen Platz an der Spitze schreckten einige Whacker nicht einmal vor "bestimmten Wörtern" zurück, "die von einem großen Teil der Bevölkerung als extrem anstößig empfunden werden", klagte eine Internetseite. Schließlich musste eine Zensur der Liste her. Der heiße Atem des Establishments hat das anarchische Vergnügen also fast wieder erreicht. Wenigstens die Erfinder nehmen das Abdriften in den Mainstream mit Humor. Mit einem Augenzwinkern geben sie die sinnlose Mission an eine höhere Instanz ab: "Wir sind auf der Suche nach Dem Einen Einzigen."
    Date
    20. 3.2002 10:28:22
    Type
    a
  10. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.03
    0.034539837 = product of:
      0.069079675 = sum of:
        0.043435566 = weight(_text_:da in 2403) [ClassicSimilarity], result of:
          0.043435566 = score(doc=2403,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.21205126 = fieldWeight in 2403, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
        0.02564411 = sum of:
          0.0025083479 = weight(_text_:a in 2403) [ClassicSimilarity], result of:
            0.0025083479 = score(doc=2403,freq=2.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.050957955 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.023135763 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.023135763 = score(doc=2403,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.5 = coord(2/4)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
    Type
    a
  11. Aschoff, F.; Rausch von Traubenberg, E.: Usability von Webportalen und Web-Suchmaschinen im Vergleich (2007) 0.03
    0.033517305 = product of:
      0.06703461 = sum of:
        0.065153345 = weight(_text_:da in 287) [ClassicSimilarity], result of:
          0.065153345 = score(doc=287,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.31807688 = fieldWeight in 287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.046875 = fieldNorm(doc=287)
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 287) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=287,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 287, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=287)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen eines berufspraktischen Studiensemesters bei der T-Online AG (Darmstadt) wurden Suchmaschinen und Portale mit integrierter Suchfunktion hinsichtlich Funktionalität und Usability untersucht. Ausgehend von der von Fauldrath und Kunisch bereits 2005 durchgeführten Untersuchung wurde erneut geprüft, welche Standards sich bei den Suchdienstanbietern etabliert haben und welche Trends erkennbar sind. Der bei der zurückliegenden Evaluation verwendete Kriterienkatalog wurde um einige Kriterien erweitert und als Bewertungsschablone der vorliegenden Evaluation eingesetzt. Besonders wichtig für den Nutzwert eines Suchdienstes ist die Relevanz der Treffer. Der bisher weit verbreitete Weg, entsprechende Spezialsuchen anzubieten, verkompliziert die Benutzung der Suchmaschine erheblich, weshalb auch aufgezeigt wird, welche Strategien die Suchdienste zur besseren Antizipierung des Nutzer-Informationsbedürfnisses bereitstellen. Die somit erzielte verbesserte Einbindung eigener Dienste und Inhalte stellt einen enormen Gewinn dar, da sowohl Nutzer als auch Anbieter gleichermaßen davon profitieren.
    Type
    a
  12. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.03
    0.03265173 = product of:
      0.06530346 = sum of:
        0.04607038 = weight(_text_:da in 2617) [ClassicSimilarity], result of:
          0.04607038 = score(doc=2617,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.22491434 = fieldWeight in 2617, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2617)
        0.019233081 = sum of:
          0.0018812611 = weight(_text_:a in 2617) [ClassicSimilarity], result of:
            0.0018812611 = score(doc=2617,freq=2.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.03821847 = fieldWeight in 2617, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2617)
          0.017351821 = weight(_text_:22 in 2617) [ClassicSimilarity], result of:
            0.017351821 = score(doc=2617,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.116070345 = fieldWeight in 2617, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2617)
      0.5 = coord(2/4)
    
    Content
    "Das Internet hat eine eigene Zeitrechnung. Alles geht rasend schnell. Mit Leuten, die im Netz Geschäfte machen, sei das ähnlich wie mit Hunden, hat Jerry Yang, der Gründer von Yahoo, einmal gesagt. Bei denen setzt man ein Lebensjahr mit sieben Menschenjahren gleich. Würde man denselben Faktor in der Internet-Branche verwenden, dann wäre Yang nicht 39 Jahre alt, sondern 273. Er ist also seit Ewigkeiten in dem Geschäft unterwegs. 1994, als das Internet nicht mehr als ein wirres Seitensammelsurium war, beschloss er mit seinem Studienkollegen David Filo, Ordnung in das Webwirrwarr zu bringen. Eine geniale Idee, wie sich zuletzt zeigte, denn Mircrosoft hat in der vergangenen Woche 44,6 Milliarden US-Dollar für die Übernahme von Yahoo geboten. In einer am Mittwoch veröffentlichten Email schrieb Yang, dass der Yahoo-Verwaltungsrat nach wie vor eine breite Palette möglicher strategischer Alternativen prüfe. Dies benötige ausreichend Zeit. Der Verhandlungspoker ist also eröffnet. Rückkehr an die Firmenspitze Yang und sein Partner Filo katalogisierten in der Anfangszeit die vorhandenen Internetseiten und wurden zu einem der erfolgreichsten Start-ups der 90er Jahre. Selbstbewusst setzten sie hinter den Firmennamen ein Ausrufezeichen. Mit Google kam aber irgendwann ein anderer Mechanismus der Internetsuche auf den Markt, wirtschaftlich überholte der Konkurrent Yahoo. Yang und Filo erlebten seitdem einige wirtschaftlich unruhige Zeiten. Zuletzt ging es eher bergab. Auf dem entscheidenden Online-Werbemarkt steht Google deutlich besser da. Software-Riese Microsoft will mit der Übernahme von Yahoo die Macht von Google brechen.
    Als Yang vor einigen Tagen auf einer Konferenz die Neuentwicklungen für Mobiltelefone vorstellte, stand er lange alleine auf der Bühne. Seinen blassen Kompagnon Filo holte er erst am Ende kurz dazu. Yang, gewohnt leger im blauen Pulli mit V-Ausschnitt und beiger Hose, begann seinen Vortrag mit einem Scherz: "Sie wollen den neuen Look von Yahoo sehen, das neue Gesicht. Ich werde Sie enttäuschen müssen. Es ist immer noch das alte." Nämlich seines. Er ist der Mann fürs Rampenlicht, zumindest wenn es sein muss. Im vergangenen Jahr hat Yang im Konzern wieder die Leitung übernommen. Der vorherige Chef wechselte wegen der schwachen Börsenkurse in den Aufsichtsrat. Den Titel "Chief Yahoo!" hatte der gebürtige Taiwanese ohnehin nie abgelegt. Das Silicon Valley gehört zu seiner Erfolgsgeschichte wie sein Lebenslauf. Mit seiner Mutter und seinem Bruder kam er im Alter von zehn Jahren im kalifornischen San José an, der selbsternannten Hauptstadt des High-Tech-Tals, in dem die Start-up-Millionäre wohnen. Apple, Ebay, Google, alle haben in dieser Gegend angefangen. Als Yang nach San José kam, soll er nur ein englisches Wort gekannt haben: Shoes. Er lernte schnell andere Wörter dazu, in der Schule war er ein Mathe-Ass. Und obwohl Stanford erklärte, ihn finanziell nicht umfangreich mit Stipendien unterstützen zu können, beschloss er, genau dort, auf dem Campus im Silicon Valley, sein Studium zu beginnen. Während seiner Promotion legte er zusammen mit David Filo ein Netzverzeichnis an, das sie "Jerry's Guide to the World Wide Web" nannten. Schon da stand sein Name im Vordergrund. Die Büros der beiden waren klein und recht unordentlich, aber bei Yang lagen zwischen den Büchern und Zetteln immerhin keine T-Shirts und dreckigen Socken wie bei Filo. Wahrscheinlich haben all diese Anekdoten dem Image der beiden eher geholfen als geschadet, jedenfalls bekamen sie eine Million Dollar von einem Wagnis-Kapital-Geber. Als sie wenig später an die Börse gingen, stieg der Kurs am ersten Tag um 154 Prozent. Ihre kleine Firma war trotz der überschaubaren Umsätze plötzlich 800 Millionen Dollar wert. Yang ließ seine Promotion ruhen. Bis heute. Trotzdem ist er alles andere als ein lässiger Abhänger. Er war immer smart, strebsam und arbeitete, wenn es sein musste, Tag und Nacht. Damit erfüllte er in den Jahren des Internet-Booms jenes Klischee, das asiatischen Einwanderern nachgesagt wurde. Nur hatte das jetzt keinen negativen Touch mehr. "Sie sind so etwas wie die Helden der Jahrhundertwende", schrieb das Time Magazin über erfolgreiche asiatische Einwanderer. Ein Beispiel: Jerry Yang.
    Date
    5. 1.1997 9:39:22
    Type
    a
  13. Pothe, A.: Nachgezählt : Wie groß ist das WWW? (2004) 0.03
    0.03160042 = product of:
      0.06320084 = sum of:
        0.06142717 = weight(_text_:da in 3036) [ClassicSimilarity], result of:
          0.06142717 = score(doc=3036,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.29988578 = fieldWeight in 3036, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=3036)
        0.00177367 = product of:
          0.00354734 = sum of:
            0.00354734 = weight(_text_:a in 3036) [ClassicSimilarity], result of:
              0.00354734 = score(doc=3036,freq=4.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.072065435 = fieldWeight in 3036, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3036)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Die verflixten dynamischen Seiten Viele Server erzeugen Seiten erst in dem Moment, in dem sie der Nutzer anfordert. Dabei greifen sie für die Inhalte auf Datenbanken zurück. Die dafür notwendigen Parameter werden bei der Anforderung der Seiten mit übermittelt. Für die Anforderung von WebSeiten kennt das HTTP-Protokoll zwei unterschiedliche Methoden - "GET" und "POST". Mit GET angeforderte dynamische Seiten erkennt man in der Regel leicht an den Parametern, die an die URL gehängt werden. Beispielsweise übergibt der Aufruf http://www.google.com/search?q=Beispiel an Google eine Suchanfrage (Parameter "q") nach dem Wort "Beispiel". Die Parameter sind durch ein Fragezeichen vom Seitennamen getrennt. Webserver können die Parameter aber auch verstecken, also ohne das Fragezeichen in der Adresse auswerten. Bei der Suchmaschine Fireball zum Beispiel zeigt die Seite http://suche.fireball.de/text/test/ dieselben Ergebnisse an wie die Seite http://suche.fireball.de/cgi-bin/pursuit?T query=test&cat=fbt loc&SITE=de Dynamische Seiten mit POSTParametern lassen sich nur schwer erkennen. Hier werden Daten nämlich nicht über die URL übergeben, sondern vom Browser in den Body der HTTPAnfrage geschrieben, wo sie für den Anwender üblicherweise nicht einsehbar sind. Aus diesem Grund lassen sich dynamische Seiten mit POST-Parametern auch nicht verlinken, da die POST-Parameter in einem normalen Link nicht mit übertragen werden. Die POST-Methode ermöglicht die Übertragung von größeren Datenmengen als GET. Da die Parameter nicht in der History stehen, bietet POST eine gewisse Sicherheit bei der Übertragung von heiklen Daten wie Kreditkartennummern. Dynamische Seiten machen das WWW unendlich groß. Das zeigt sich schon bei den Suchmaschinen, in deren Suchformulare beliebige Begriffe eingegeben werden können. Bei jedem neuen Begriff, bei der kleinsten Änderung der Suchdaten gibt die Suchmaschine eine andere Seite aus. Um genau diejenigen Seiten zu erfassen, die auch Suchrnaschinen indexieren können, bedarf es eines Kompromisses: Dynamische Seiten wurden nur gezählt, wenn sie nicht voraussetzen, dass für ihren Abruf ein Textfeld ausgefüllt wird. Sobald Seitengenerierungen aus Textfeldern unberücksichtigt bleiben, wird nur noch eine endliche Menge an Seiten untersucht. Seiten mit (sichtbaren wie unsichtbaren) GET-Parametern in der URL können Suchmaschinen dagegen indexieren. Bei der Untersuchung wurden dynamische Seiten mit sichtbaren Parametern ebenfalls nicht erfasst, sondern durch den Korrekturfaktor mit berücksichtigt."
    Type
    a
  14. Schlüter, C.: Europa auf dem Rückzug : Googles digitale Bibliothek (2006) 0.03
    0.03134067 = product of:
      0.06268134 = sum of:
        0.06142717 = weight(_text_:da in 5983) [ClassicSimilarity], result of:
          0.06142717 = score(doc=5983,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.29988578 = fieldWeight in 5983, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=5983)
        0.0012541739 = product of:
          0.0025083479 = sum of:
            0.0025083479 = weight(_text_:a in 5983) [ClassicSimilarity], result of:
              0.0025083479 = score(doc=5983,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.050957955 = fieldWeight in 5983, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5983)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Endlich, der lange erwartete Untergang des Abendlandes ist da. Nach einigen juristischen Scharmützeln und auch technisch bedingten Verzögerungen bietet das US-Internetportal Google nun den kompletten Inhalt von Büchern vor allem aus den Beständen amerikanischer Bibliotheken an. Im Zuge des Google Book Search - in Deutschland Google Buchsuche - genannten Projekts will der weltweit erfolgreichste Suchmaschinenbetreiber Millionen von Büchern ins Netz stellen. Nutzer dieses Angebots bekommen allerdings als Antwort auf ihre Suchanfrage nicht den kompletten Buchtext zu sehen, sondern nur kurze, nicht sonderlich aussagefähige Schnipsel. Doch immerhin, ein Anfang ist gemacht, der große ganze Rest wird kommen, bestimmt. Eine Vorahnung von Ausmaß und Möglichkeiten des Projekts geben die von Google bereits eingescannten Bücher, deren Copyright abgelaufen ist: Sie stehen zum Download als PDF-Datei bereit. Bislang konnten Werke wie Dantes Inferno oder Goethes Faust nur am Bildschirm betrachtet werden, nun lassen sie sich auch herunterladen und ausdrucken. Google hat sich verpflichtet, von den Nutzern für die Suche und das Betrachten der Bücher, die nicht urheberrechtlich geschützt sind, keine Gebühren zu verlangen. Darüber hinaus hat des Unternehmen unlängst mit der Universität von Kalifornien eine Vereinbarung getroffen, wonach in den nächsten sechs Jahren mindestens 2,5 Millionen Bände digitalisiert werden dürfen. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es allerdings nicht nur juristische, besonders das Urheberrecht betreffende Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt? Und eine Alternative, etwa die als GoogleKiller annoncierte Europäische Digitale Bibliothek namens Quaero, ist immer noch nicht in Sicht. Überdies wird hier die Beteiligung privater Unternehmen (Bertelsmann, Siemens...) der befürchteten Kommerzialisierung des Weltwissens kaum Einhalt gebieten. Weshalb wir nicht so sehr den amerikanischen Kulturimperialismus, sondern den Rückzug des Staates aus seiner öffentlichen Verantwortung zu beklagen haben."
    Type
    a
  15. Beuth, P.: Wie Google, nur belesen : Suchmaschine, die sich selbst nicht kennt - Cuil vs. Google (2008) 0.03
    0.030222358 = product of:
      0.060444716 = sum of:
        0.03800612 = weight(_text_:da in 6083) [ClassicSimilarity], result of:
          0.03800612 = score(doc=6083,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.18554485 = fieldWeight in 6083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6083)
        0.022438597 = sum of:
          0.0021948046 = weight(_text_:a in 6083) [ClassicSimilarity], result of:
            0.0021948046 = score(doc=6083,freq=2.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.044588212 = fieldWeight in 6083, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6083)
          0.020243792 = weight(_text_:22 in 6083) [ClassicSimilarity], result of:
            0.020243792 = score(doc=6083,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.1354154 = fieldWeight in 6083, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=6083)
      0.5 = coord(2/4)
    
    Content
    "Als kleines Internet-Start-Up gleich den Marktführer Google anzugreifen, ist wie barfuß gegen einen Öltanker zu treten: Man kann sich nur wehtun. Umso verwegener ist der Plan, wenn sich das Start-Up unter anderem aus ehemaligen Angestellten von Google zusammensetzt, die es besser wissen müssten. Sie tun es trotzdem. Cuil heißt ihre neue Suchmaschine, was wie "cool" ausgesprochen wird und auf Gälisch so viel wie Wissen bedeutet. Und weil gegen den Branchenprimus nur Klotzen hilft, nennen die Davids gleich mal eine Hausnummer: 120.000.000.000. So viele Seiten will Cuil indiziert haben: 120 Milliarden - und damit nach eigenen Angaben bis zu viermal mehr als Goliath Google. Zudem arbeitet Cuil etwas anders als Google: Die Suchergebnisse werden nicht als lange Linkliste präsentiert, sondern in Spalten geordnet, als Teaser mit Bild. Bewertet wird nicht wie bei Google die Anzahl der Links auf die jeweiligen Treffer, also die Popularität einer Webseite. Vielmehr wird deren gesamter Inhalt von Cuil automatisch durchsucht. Dabei soll die neue Maschine erkennen, ob ein Wort mehrere Bedeutungen hat und als Ergebnis entsprechende Kategorien anbieten. Das beste Argument für einen Gewohnheitswechsel ist jedoch die Datenschutz-Politik der Neulinge: Im Gegensatz zu Google speichert Cuil nicht, über welche IP-Adresse eines Rechners wann und wonach gesucht wurde. "Wir wollen das Web analysieren, nicht die Nutzer", sagen sie. Um bei Google unerfasst zu bleiben, kann der User immerhin einen kleinen Umweg nutzen: die Seite scroogle.org schaltet sich zwischen Nutzer und Google, löscht dessen Cookie und liefert anonymisiert die gewohnten Googletreffer. Der sorgsame Umgang mit Userdaten gehört zu den Alleinstellungsmerkmalen, die die Herausforderer dringend nötig haben. Immerhin beschäftigt Google 20.000 Mitarbeiter und investiert jedes Jahr gewaltige Summen in die Verbesserung seiner Suchtechniken. Zuletzt hat Microsoft deshalb die kleine Firma Powerset und deren halb-semantische Suchmaschine aufgekauft: Powerset versteht simpel formulierte Fragen wie "Wer ist...?" und "Was ist ein...?" und beantwortet sie mit passenden Treffern - durchsucht bislang aber nur Wikipedia und die Datenbank Freebase. Das bringt bei Google keinen um den Schlaf, ist aber ein Vorgeschmack auf künftige Suchmaschinen. Natürlich laboriert auch Cuil noch an Kinderkrankheiten. So sind die Server unter dem ersten Ansturm sofort zusammengebrochen. Zudem zeigt Cuil zu vielen Seiten Bilder, die gar nichts mit dem Treffer zu tun haben. Den bislang entscheidenden Minuspunkt aber gibt es für die schlechten Suchergebnisse: Da tauchen an prominenter Stelle veraltete Seiten und irrelevante Informationen auf, die gesuchten Hauptseiten dafür manchmal gar nicht. Bestes Beispiel ist peinlicherweise Cuil selbst. Der Suchbegriff führt zu Immobilienanzeigen in Irland und Downloads der irischen Band The Chieftains. Umso ärgerlicher für Cuil, dass der alte Tanker Google bereits jede Menge Infos über die neue Konkurrenz ausspuckt."
    Date
    17. 7.1996 9:33:22
    Type
    a
  16. Hentschel, A.; Schmidt, M.; Mattos, N.: "Google ist nie fertig!" : [Interview] (2008) 0.03
    0.028877357 = product of:
      0.057754714 = sum of:
        0.05642446 = weight(_text_:da in 1933) [ClassicSimilarity], result of:
          0.05642446 = score(doc=1933,freq=6.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.2754627 = fieldWeight in 1933, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1933)
        0.0013302524 = product of:
          0.0026605048 = sum of:
            0.0026605048 = weight(_text_:a in 1933) [ClassicSimilarity], result of:
              0.0026605048 = score(doc=1933,freq=4.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.054049075 = fieldWeight in 1933, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1933)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Die Google-Labs bieten viel Zerstreuung: Billardtische, Schaumstoffbadewannen, Kickertische. Was hält Sie da noch im Büro? Ich muss nicht im Büro arbeiten. Ich kann mit meinem Laptop irgendwo hingehen - das Lab ist wireless vernetzt. Mein Lieblingsplatz ist die Bibliothek. Dort gibt es einen Kamin und eine Couch, da kann ich gut arbeiten. Ich verbiete niemandem, in der Badewanne zu liegen. Aber der lockere Eindruck täuscht manchmal: Alle Mitarbeiter definieren Pläne und es wird erwartet, dass sie die Ziele erfüllen. Natürlich arbeiten wir bei Google sehr frei, aber die Quartalsziele sind hart. Das spürt man kurz vor den Deadlines, wenn viele Leute besonders konzentriert arbeiten. Über Google steht das Motto "Don't be evil" - sei nicht böse. Werden Ideen verworfen, weil sie diesem Motto nicht entsprechen? Wir verwerfen Ideen, die - wie wir das nennen - nicht "googeley" sind. Es gibt ein intern oft genanntes Beispiel: Ein Ingenieur hat unseren Firmengründern Larry Page und Sergej Brin einmal eine Idee präsentiert, mit der Google viel Geld hätte verdienen können. Larry und Sergej stellten aber die Frage: "Was ist der Vorteil für den Nutzer?" Darauf hatte der Ingenieur keine Antwort - und damit war das Thema vom Tisch. Wenn der Mehrwert für den Nutzer nicht klar ist, wird ein Projekt nicht gemacht. Warum, glauben Sie, hat Microsoft Live Search so wenig Erfolg? Die Suchergebnisse sind nicht immer gut. Wer eine Anfrage stellt, möchte relevante Ergebnisse.
    Die liefert Google auch nicht immer - und da setzen Suchkonzepte wie wikia Search an. Wird das eine ernst zu nehmende Konkurrenz? Wenn Google-Nutzer nicht auf die angezeigten Treffer klicken, sind sie offenbar nicht zufrieden mit unseren Ergebnissen. So sehen auch wir, ob Treffer relevant sind oder nicht. Natürlich arbeiten wir permanent an der Verbesserung der Suche. Wir sagen nicht "Das Produkt ist fertig" und legen die Hände in den Schoß. Auf eine Suchanfrage bekommen Sie heute Tausende Treffer. Besser wäre doch nur ein Ergebnis - nämlich das beste und das relevanteste. Welche fünf Dinge muss eine Suchmaschine in fünf Jahren können? Sie wird verschiedene Dateitypen anzeigen - Bilder, Texte, Dokumente. Zweitens: Statt etwas einzutippen fragen Sie mit der Stimme -und zwar, das ist der dritte Punkt, in jeder beliebigen Sprache. Viertens: Cloud-Computing wird wichtiger. Sie können jederzeit auf Ihre Mails zugreifen, auf den Kalender oder die Kontakte in Ihrem Handy. Und als Letztes: die mobile Suche. Wo wird Google in fünf Jahren stehen? Auf Augenhöhe mit Microsoft oder so vergessen wie Netscape? So denken wir nicht. Wir denken nicht darüber nach, ob wir morgen größer oder besser sind als Microsoft. Ich denke an die Nutzer. Ich denke darüber nach, wie man Informationen zu den Leuten in der ganzen Welt bringt. Das ist, was mich motiviert - und nicht nur mich, sondern auch die meisten Google-Mitarbeiter: etwas in die Welt einzubringen."
    Type
    a
  17. ibc: Resultate im Tableau : Suchmaschine ordnet Ergebnisse grafisch (2001) 0.03
    0.027931087 = product of:
      0.055862173 = sum of:
        0.054294456 = weight(_text_:da in 5959) [ClassicSimilarity], result of:
          0.054294456 = score(doc=5959,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.26506406 = fieldWeight in 5959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5959)
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 5959) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=5959,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 5959, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5959)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Wer per Suchmaschine im Internet nach einem bestimmten Begriff forscht, hat unter Umständen anschließend zwar jede Menge Dokumente gefunden - aber dabei die Übersicht verloren. Ist der Suchbegriff gar noch relativ allgemein, kommen meist Hunderte von Ergebnisseiten zusammen, viele davon auch mehrfach aufgeführt. Forscher an der University of Illinois in Champaign haben jetzt eine Software entwickelt, die das Auswerten von Suchmaschinen-Ergebnissen erleichtern soll. VisIT heißt das Programm, das die gefundenen Internetadressen nicht als Liste darstellt, sondern als Grafik. Farbige Rechtecke symbolisieren die einzelnen Seiten, und durch Pfeile werden inhaltliche Zusammenhänge verdeutlicht; so werden besonders relevante Ergebnisse besser erkennbar. Geht der Nutzer mit dem Mauszeiger auf eine Adresse, erhält er in einem sich öffnenden Fenster kurze Informationen zum Inhalt der Seite. Innerhalb der Grafik kann er dann die einzelnen Ergebnisse nach Wichtigkeit anordnen und markieren. Komfortabel ist VisIT auch dadurch, dass mehrere Suchmaschinen gleichzeitig nach einem bestimmten Begriff durchforstet werden und nicht, wie meist üblich, nacheinander. Außerdem sortiert das Programm identische Ergebnisse aus. Das lästige Blättern in einer langen Liste entfällt, da alle gefundenen Adressen auf einen Blick zu sehen sind und dort direkt per Mausklick angewählt werden können. Unter der Adresse http://www.visit.uiuc.edu lässt sich die Beta-Version der Software kostenlos herunterladen. Sie funktioniert zur Zeit nur unter Windows, aber Linux- und Mac-Versionen sind in Vorbereitung
    Type
    a
  18. deu: Suchmaschinen gegen den Infostau : Deutsches Forschungsnetz (2001) 0.03
    0.027931087 = product of:
      0.055862173 = sum of:
        0.054294456 = weight(_text_:da in 6725) [ClassicSimilarity], result of:
          0.054294456 = score(doc=6725,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.26506406 = fieldWeight in 6725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6725)
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 6725) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=6725,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 6725, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6725)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Das Web wuchert. Das Informationsangebot lässt zwar mit Maschinen nach Stichwörtern durchsuchen. Doch die Ergebnisse sind teils ernüchternd oder erschlagend: Die Fundlisten sind lang und trennen nur manchmal die Spreu vom Weizen. Da geben nicht nur Normalnutzer schnell auf. Auch Studierende streichen die Web-Segel. Nur wenige beschaffen sich wissenschaftliche Informationen aus dem Internet, ergab eine Studie der Sozialforschungsstelle an der Universität Dortmund. Zwar grast knapp zwei Drittel des akademischen Nachwuchses das Web mit den üblichen Suchmaschinen ab - durchaus auch nach fachlichen Informationen. Doch es herrscht allgemeine Unzufriedenheit mit den Ergebnissen der Recherchen. Wichtigster Kritikpunkt: ein umfassendes Auflisten aller Treffer ist meist nur hinderlich. Biologen etwa, die nach Veröffentlichungen über Eiweiße suchen, sind weniger an Küchenrezepten mit Eischnee interessiert - die sie aber mitserviert bekommen. Selbst die Recherche nach "Protein ohne Eiweiß", die bei einigen Suchmaschinen möglich ist, führt noch zu einem mittleren Informationsstau. Eine Maschine, die sich in Biologie auskennt und ausschließlich dieses Feld beackert, wäre gut. Im Auftrag des Bildungsministeriums entwickelt der Verein zur Förderung eines Deutschen Forschungsnetzes (DFN) nun solche fachspezifischen Suchmaschinen. Wie üblich, soll die Software unablässig im Netz stöbern - und die Funde nach einem Schlagwortkatalog festgelegten Fachgebieten zuordnen. Anfragen durchstöbern dann nur die entsprechende Sektion. Der Bezug der Dokumente untereinander, die Links auf den Seiten werden zur Bewertung herangezogen. Damit, hoffen die Forscher, sei ein effektives Ranking möglich: Die Dateien, auf die am häufigsten verwiesen wird, landen ganz oben. Die erfolgreiche allgemeine Suchmaschine Google arbeitet nach diesem Prinzip. Das Ministerium zahlt dafür 1,2 Millionen Mark. DFN-Chef Eike Jessen: "Spätestens im Frühjahr 2003 soll die innovative Suchsoftware für die Mitglieder des DFN-Vereins sowie für andere akademische Einrichtungen frei verfügbar sein.""
    Type
    a
  19. Kuhlen, R.: Macht Google autonom? : Zur Ambivalenz informationeller Autonomie (2005) 0.03
    0.027931087 = product of:
      0.055862173 = sum of:
        0.054294456 = weight(_text_:da in 3531) [ClassicSimilarity], result of:
          0.054294456 = score(doc=3531,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.26506406 = fieldWeight in 3531, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3531)
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 3531) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=3531,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 3531, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3531)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Jeder weiß, was Google und andere Anbieter von Metainformationen leisten. Keine Frage, dass sie die Möglichkeit zum informationell autonomen Handeln erhöhen. Jeder denkt dabei zuerst an die Suchmaschine Google. Was immer auch deren unzählige Bewertungen im Detail besagen - einig sind sich in der Praxis alle: Man benutzt Google. Und die Konsequenz ist auch klar: Mit den Websuchdiensten, allen voran Google, hat sich die Art, wie wir auf Informationen zugreifen, und unsere Einstellung zu Wissen und Information grundlegend verändert. Aber Suchmaschinen sind inzwischen nicht mehr nur zum Suchen da: Google und seine Konkurrenten erweitern ihr Angebot, indem sie die Produkte anderer übernehmen und weiterentwickeln. Ein Beispiel ist die Bildersuch- und -verwaltungssoftware von Picasa. Der Vorteil für den Verbraucher ist dabei, dass die Software jetzt kostenlos nutzbar und in den Google-Blogger-Service und natürlich den Google-Mail-Dienst Gmail integrierbar ist. Nutzen werden viele auch die Google-DesktopSoftware, mit der die Dateien auf dem eigenen Rechner komfortabel durchsucht werden können - bevorzugt solche, die mit Microsoft-Software erstellt wurden. Und so wird es weiter gehen: Googles Ziel »to organize the world's information, making it universally accessible and useful« ist fest im Blick. Zukünftig wird Googles Angebot eine virtuelle Bibliothek einschließen, in der die gesamten Bestände großer Hochschulbibliotheken wie Stanford, Harvard oder Oxford elektronisch aufbereitet zugänglich sind - zwei Jahrzehnte wird es nach Schätzung von Google dauern, bis dieses Projekt abgeschlossen ist. Der Einstieg in das Publikationsgeschäft wurde jüngst mit CrossRef Search gemacht: Google bereitet die Daten eines kommerziellen Dokumentlieferdienst auf und bietet die Ergebnisse auf der Website der beteiligten Verlage im Google-Format zur Suche an.
    Type
    a
  20. Kwiatkowski, M.; Höhfeld, S.: Thematisches Aufspüren von Web-Dokumenten : eine kritische Betrachtung von Focused Crawling-Strategien (2007) 0.03
    0.027931087 = product of:
      0.055862173 = sum of:
        0.054294456 = weight(_text_:da in 153) [ClassicSimilarity], result of:
          0.054294456 = score(doc=153,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.26506406 = fieldWeight in 153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 153) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=153,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 153, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=153)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Herkömmliche Suchmaschinen dienen der breiten Websuche und zeichnen sich zumeist durch eine hohe Quantität - nicht unbedingt durch Qualität - ihrer Ergebnismengen aus. Zum Suchen von Dokumenten wird ein allgemeiner Crawler eingesetzt, der Webseiten aufspürt, um große Datenspeicher aufzubauen. Focused Crawler gehen dagegen gezielter vor: Nicht enorme Datenmengen sollen durchsucht, gespeichert und indexiert werden, sondern nur bestimmte, thematisch relevante Segmente des World Wide Web. Der Focused Crawler muss einen möglichst optimalen Weg durch das Web finden, um Knowledge Discovery zu betreiben. Dabei bleiben die für eine Thematik irrelevanten Bereiche des Web unberücksichtigt. Die Aufgabe wird dadurch erheblich verkleinert und der Ressourcenaufwand verringert. Ziel ist die Produktion qualifizierter Suchergebnisse zu einem bestimmten Wissensgebiet. Im Allgemeinen können Focused Crawling-Techniken für den Aufbau spezialisierter vertikaler Suchmaschinen eingesetzt werden. Sie sind darüber hinaus im Bereich der Digitalen Bibliotheken von Vorteil. Da diese oft über einen thematischen Schwerpunkt verfügen und der qualifizierten Literatur-Untersuchung dienen, müssen sie einen gewissen Qualitätsanspruch Genüge leisten und dabei lediglich Anfragen zu einem definierten Wissensbereich bedienen. Der Einsatz von Focused Crawling bietet sich also an, um eine hohe Dokument-Qualität in einer spezifischen Domäne zu gewährleisten. Dieser Review-Artikel beleuchtet grundlegende Ansätze des Focused Crawling und verfolgt diese bis in die aktuellen Entwicklungen. Praktische Einsatzgebiete und aktuelle Systeme untermauern die Bedeutsamkeit des Forschungsgebiets. Darüber hinaus wird eine kritische Betrachtung der aufgeführten Ansätze geleistet.
    Type
    a

Years

Languages

Types

  • a 971
  • el 82
  • m 35
  • x 7
  • s 6
  • r 4
  • p 2
  • More… Less…

Subjects

Classifications