Search (739 results, page 1 of 37)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.16
    0.15574047 = product of:
      0.7981699 = sum of:
        0.026000304 = product of:
          0.07800091 = sum of:
            0.07800091 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.07800091 = score(doc=2514,freq=2.0), product of:
                0.1387872 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016370254 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.110309936 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.110309936 = score(doc=2514,freq=4.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.19512194 = coord(8/41)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Price, A.: Five new Danish subject gateways under development (2000) 0.02
    0.020584045 = product of:
      0.14065765 = sum of:
        0.051456887 = weight(_text_:medizin in 4878) [ClassicSimilarity], result of:
          0.051456887 = score(doc=4878,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.58931375 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.051456887 = weight(_text_:medizin in 4878) [ClassicSimilarity], result of:
          0.051456887 = score(doc=4878,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.58931375 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.008884721 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.008884721 = score(doc=4878,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.008884721 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.008884721 = score(doc=4878,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.008884721 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.008884721 = score(doc=4878,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.011089717 = product of:
          0.022179434 = sum of:
            0.022179434 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
              0.022179434 = score(doc=4878,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.38690117 = fieldWeight in 4878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Date
    22. 6.2002 19:41:31
    Field
    Medizin
    Lebensmittel und Ernährung
  3. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.02
    0.02029772 = product of:
      0.16644129 = sum of:
        0.05821682 = weight(_text_:medizin in 5523) [ClassicSimilarity], result of:
          0.05821682 = score(doc=5523,freq=16.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.6667324 = fieldWeight in 5523, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.05821682 = weight(_text_:medizin in 5523) [ClassicSimilarity], result of:
          0.05821682 = score(doc=5523,freq=16.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.6667324 = fieldWeight in 5523, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.016669214 = weight(_text_:und in 5523) [ClassicSimilarity], result of:
          0.016669214 = score(doc=5523,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4594286 = fieldWeight in 5523, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.016669214 = weight(_text_:und in 5523) [ClassicSimilarity], result of:
          0.016669214 = score(doc=5523,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4594286 = fieldWeight in 5523, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.016669214 = weight(_text_:und in 5523) [ClassicSimilarity], result of:
          0.016669214 = score(doc=5523,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4594286 = fieldWeight in 5523, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.12195122 = coord(5/41)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
    Field
    Medizin
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  4. Macht, W.: Blogs im Heuhaufen (2007) 0.02
    0.017236972 = product of:
      0.10095941 = sum of:
        0.01800991 = weight(_text_:medizin in 1303) [ClassicSimilarity], result of:
          0.01800991 = score(doc=1303,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.2062598 = fieldWeight in 1303, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
        0.01800991 = weight(_text_:medizin in 1303) [ClassicSimilarity], result of:
          0.01800991 = score(doc=1303,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.2062598 = fieldWeight in 1303, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
        0.010772152 = weight(_text_:und in 1303) [ClassicSimilarity], result of:
          0.010772152 = score(doc=1303,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 1303, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
        0.028706497 = weight(_text_:einzelner in 1303) [ClassicSimilarity], result of:
          0.028706497 = score(doc=1303,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.26040477 = fieldWeight in 1303, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
        0.010772152 = weight(_text_:und in 1303) [ClassicSimilarity], result of:
          0.010772152 = score(doc=1303,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 1303, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
        0.0039166333 = product of:
          0.007833267 = sum of:
            0.007833267 = weight(_text_:29 in 1303) [ClassicSimilarity], result of:
              0.007833267 = score(doc=1303,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.13602862 = fieldWeight in 1303, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1303)
          0.5 = coord(1/2)
        0.010772152 = weight(_text_:und in 1303) [ClassicSimilarity], result of:
          0.010772152 = score(doc=1303,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 1303, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
      0.17073171 = coord(7/41)
    
    Abstract
    Suchmaschinen jenseits von Google. Als der Internet-Suchdienst Google 1998 ans Netz ging, waren wir alle begeistert: Der neue Informationsdienst war schnell, lieferte exzellente Ergebnisse und seine Startseite kam ganz ohne Werbung aus. Heute schlüpft der Großteil der Internetnutzer durch Googles Suchschlitz ins World Wide Web. Zunehmend mehren sich aber auch Vorhalte gegen die Omnipotenz des Informationsgiganten. Welche der empfohlenen Websites haben sich ihre Platzierungen erkauft? Warum speichert Google persönliche Daten der Nutzer? Doch keine Sorge: Das Schöne am WWW ist ja, dass wir jederzeit anders suchen können! Wir haben Wolfgang Macht von der Internet-Expertengruppe "Die Netzpiloten" um Tipps gebeten: Für das FR-Magazin präsentiert er Alternativen zum Suchen und Finden für alle, die sich nicht auf Google verlassen wollen.
    Content
    "Regionale Suche Auch im weltumspannenden Internet ist das Lokale stets Trumpf: Vom Behördenwegweiser bis zum Programm meines Kinos um die Ecke ist alles jederzeit abrufbar. Zahlreiche regionale Tageszeitungen bieten inzwischen starke Regio-Portale an. Wer neu in einer Stadt ist, verreisen will oder nach Veranstaltungen in seiner Umgebung sucht, der findet einen guten Einstieg über den deutschen Marktführer unter den deutschen Regio-Portalen: MeineStadt.de (www.meinestadt.de). Dort sind 12.241 Städte sehr übersichtlich abgebildet und hilfreich nach Rubriken durchsuchbar. Media-Suche Das Internet lebt mittlerweile nicht zuletzt vom Web 2.0: Videos bei YouTube, Fotos bei Flickr, MP3-Songs bei MySpace... Allerdings erfassen klassische Suchmaschinen wie Google die neuen Medien nur mittelmäßig. Wer im nahezu unendlichen Meer von Bildern, Videos oder Musik navigieren möchte, findet dafür trotzdem zahlreiche Hilfsmittel. Zu den besten Findern gehören für Musikdateien Mpex (www.mpex.net) und Chime TV (www.chime.tv) für plattformübergreifende Suche in vielen gängigen Videoplattformen wie YouTube und MySpace.
    Blog-Suche Die immer zahlreicher werdenden teils privaten, teils professionellen Wissens- und Meinungsplattformen im Internet sind längst eine wichtige Fundgrube für die alternative Informationssuche geworden. Plattformen wie die Blogpiloten (www.blogpiloten.de) - die zu den Netzpiloten gehören - durchforsten mit Redakteuren die so genannte Blogosphäre nach den wichtigsten Themen. Andere Suchseiten wie die brandneue Wikio (www.wikio.de) oder Blogscout (www.blogscout.de) orientieren sich an messbaren Kriterien, etwa an der Häufigkeit der Abrufe einzelner Beiträge in verschiedenen Weblogs. Produktsuche Wenn es um Kaufen und Konsum geht, ist der Zugang auch im Netz selten schwierig. Die Produktsuche Kelkoo (www.kelkoo.de) zum Beispiel führt auf breiten virtuellen Wegen zu den billigsten Angeboten im Netz. Wer kritischer einkaufen will, nimmt den Umweg über Testberichte.de (www.testberichte.de), die Test- und Verbraucher-Informationen aus mehr als 140 Testzeitschriften vermitteln. Und wer die Produkte gar nicht kaufen, sondern lieber in Gewinnspielen nach seinem Traumpreis suchen will, für den haben die Netzpiloten die Plattform Superwin (www.superwin.de) erstellt. Themen-Suchmaschinen Thematische Plattformen haben den Vorteil, dass sie meist an Spezialdatenbanken angeschlossen sind und von Experten aufgestellt und gepflegt werden. Das ist besonders wichtig bei sensiblen Themen wie Gesundheit. Nicht selten tippen Hilfesuchende einfach ihren ärztlichen Befund in die Google-Suchmaske. Keine gute Idee! Die bunt gemixte Ergebnisliste wird eher Verwirrung und Besorgnis stiften. Man startet besser bei Plattformen wie dem Medkatalog (www.medkatalog.com) oder dem Medizin-Forum(www.medizin-forum.de). Auch hilfreich: die Arztdatei (www.arztdatei.de) oder das Gesundheitsnetzwerk www.helpster.de."
    Date
    16. 8.1996 10:03:29
  5. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.01
    0.014229902 = product of:
      0.1166852 = sum of:
        0.016454734 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.016454734 = score(doc=284,freq=14.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.016454734 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.016454734 = score(doc=284,freq=14.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.016454734 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.016454734 = score(doc=284,freq=14.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.022440331 = product of:
          0.044880662 = sum of:
            0.044880662 = weight(_text_:insgesamt in 284) [ClassicSimilarity], result of:
              0.044880662 = score(doc=284,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46047226 = fieldWeight in 284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=284)
          0.5 = coord(1/2)
        0.044880662 = weight(_text_:insgesamt in 284) [ClassicSimilarity], result of:
          0.044880662 = score(doc=284,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.46047226 = fieldWeight in 284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.12195122 = coord(5/41)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
  6. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.01
    0.013886948 = product of:
      0.08133784 = sum of:
        0.012501911 = weight(_text_:und in 52) [ClassicSimilarity], result of:
          0.012501911 = score(doc=52,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34457147 = fieldWeight in 52, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.007490127 = product of:
          0.014980254 = sum of:
            0.014980254 = weight(_text_:allgemein in 52) [ClassicSimilarity], result of:
              0.014980254 = score(doc=52,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17415863 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.5 = coord(1/2)
        0.012501911 = weight(_text_:und in 52) [ClassicSimilarity], result of:
          0.012501911 = score(doc=52,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34457147 = fieldWeight in 52, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.012501911 = weight(_text_:und in 52) [ClassicSimilarity], result of:
          0.012501911 = score(doc=52,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34457147 = fieldWeight in 52, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.007490127 = product of:
          0.014980254 = sum of:
            0.014980254 = weight(_text_:allgemein in 52) [ClassicSimilarity], result of:
              0.014980254 = score(doc=52,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17415863 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.5 = coord(1/2)
        0.009617285 = product of:
          0.01923457 = sum of:
            0.01923457 = weight(_text_:insgesamt in 52) [ClassicSimilarity], result of:
              0.01923457 = score(doc=52,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.19734526 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.5 = coord(1/2)
        0.01923457 = weight(_text_:insgesamt in 52) [ClassicSimilarity], result of:
          0.01923457 = score(doc=52,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.19734526 = fieldWeight in 52, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
      0.17073171 = coord(7/41)
    
    Content
    "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
    Eine Realisation ähnlicher Konzepte findet sich zum Beispiel auch in der Bibliothekswelt: Einzelne Opacsysteme werden mit anderen zu einem Verbund koordiniert, der seinerseits eine Möglichkeit anbietet, die angeschlossenen Systeme zu durchsuchen (zwar technisch keine echte Metasuche, aber durchaus vergleichbar, da verschiedene Einzelsysteme unter einer einheitlichen Oberfläche angeboten werden). Übergeordnet gibt es weitere, verbundübergreifende Suchmöglichkeiten wie das P7+-Verbundportal. Der Katalog der DNB kommt dazu und umfasst sämtliche deutschsprachige Literatur (was als Redundanz zu den anderen Einzelopacs gesehen werden kann). Als echtes Metasuchsystem gibt es in Bibliothekskreisen den KVK, der wiederum seinerseits den Katalog der DNB, die einzelnen Verbundkataloge, aber auch nochmal die Einzelsysteme diverser Bibliotheken zusammenfasst. Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KoBV) geht sogar einen Schritt weiter und setzt komplett auf verteilte Datenhaltung, indem er z.B. einen dezentralen Verbundkatalog betreibt. Die heterogenen Einzelsysteme der Bibliotheken werden über eine zentrale Suchmaschine miteinanderverbunden. So erkennt man bei diesem Beispiel ganz deutliche Parallelen zu den Überlegungen des SuMa-eV. ...
    Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.35-40
    Theme
    Katalogfragen allgemein
  7. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.01
    0.0135303205 = product of:
      0.11094862 = sum of:
        0.015234124 = weight(_text_:und in 3189) [ClassicSimilarity], result of:
          0.015234124 = score(doc=3189,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 3189, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
        0.057412993 = weight(_text_:einzelner in 3189) [ClassicSimilarity], result of:
          0.057412993 = score(doc=3189,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.52080953 = fieldWeight in 3189, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
        0.015234124 = weight(_text_:und in 3189) [ClassicSimilarity], result of:
          0.015234124 = score(doc=3189,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 3189, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
        0.007833267 = product of:
          0.015666533 = sum of:
            0.015666533 = weight(_text_:29 in 3189) [ClassicSimilarity], result of:
              0.015666533 = score(doc=3189,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.27205724 = fieldWeight in 3189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3189)
          0.5 = coord(1/2)
        0.015234124 = weight(_text_:und in 3189) [ClassicSimilarity], result of:
          0.015234124 = score(doc=3189,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 3189, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
      0.12195122 = coord(5/41)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
    Date
    12. 2.2005 18:29:36
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.41-48
  8. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.013449281 = product of:
      0.07877436 = sum of:
        0.012438609 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.012438609 = score(doc=1333,freq=32.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.012438609 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.012438609 = score(doc=1333,freq=32.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.0039166333 = product of:
          0.007833267 = sum of:
            0.007833267 = weight(_text_:29 in 1333) [ClassicSimilarity], result of:
              0.007833267 = score(doc=1333,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.13602862 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.5 = coord(1/2)
        0.012438609 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.012438609 = score(doc=1333,freq=32.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.0112201655 = product of:
          0.022440331 = sum of:
            0.022440331 = weight(_text_:insgesamt in 1333) [ClassicSimilarity], result of:
              0.022440331 = score(doc=1333,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23023613 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.5 = coord(1/2)
        0.022440331 = weight(_text_:insgesamt in 1333) [ClassicSimilarity], result of:
          0.022440331 = score(doc=1333,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.23023613 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.003881401 = product of:
          0.007762802 = sum of:
            0.007762802 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.007762802 = score(doc=1333,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.5 = coord(1/2)
      0.17073171 = coord(7/41)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
    6. 2.2009 10:29:08
  9. "Internet-Suchmaschine der nächsten Generation" : Seruba (2001) 0.01
    0.013297727 = product of:
      0.10904136 = sum of:
        0.013906789 = weight(_text_:und in 5917) [ClassicSimilarity], result of:
          0.013906789 = score(doc=5917,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38329202 = fieldWeight in 5917, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5917)
        0.013906789 = weight(_text_:und in 5917) [ClassicSimilarity], result of:
          0.013906789 = score(doc=5917,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38329202 = fieldWeight in 5917, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5917)
        0.013906789 = weight(_text_:und in 5917) [ClassicSimilarity], result of:
          0.013906789 = score(doc=5917,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38329202 = fieldWeight in 5917, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5917)
        0.022440331 = product of:
          0.044880662 = sum of:
            0.044880662 = weight(_text_:insgesamt in 5917) [ClassicSimilarity], result of:
              0.044880662 = score(doc=5917,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46047226 = fieldWeight in 5917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5917)
          0.5 = coord(1/2)
        0.044880662 = weight(_text_:insgesamt in 5917) [ClassicSimilarity], result of:
          0.044880662 = score(doc=5917,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.46047226 = fieldWeight in 5917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5917)
      0.12195122 = coord(5/41)
    
    Abstract
    Das Hamburger Unternehmen Seruba unter Leitung von Prof. Dr. Winfried Schmitz-Esser hat unter der Adresse www.lex4.com eine "Internet-Suchmaschine der nächsten Generation" gestartet, über die ein Thema in Deutsch, Englisch, Französisch und Spanisch erschlossen werden kann. Lex4 basiert auf den "Lexicosaurus", einer Kombination aus Lexikon und Thesaurus, die dreierlei verzeichnet: was unter einem bestimmten Begriff zu verstehen ist, in welchem Zusammenhang dieser Begriff zu anderen Begriffen steht und welche Ausdrücke für diesen Begriff in den vier genannten Sprachen geläufig sind. Insgesamt sind in dem semantischen Netzwerk über 500.000 Einzelbegriffe zu Bedeutungs- und Themenzusammenhängen verknüpft. Die 1998 gegründete Seruba ist risikokapitalfinanziert und beschäftigt 26 Mitarbeiter. Schmitz-Esser lehrt Mediendokumentation an der FH Hamburg
  10. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.01
    0.012440697 = product of:
      0.07286694 = sum of:
        0.008884721 = weight(_text_:und in 5134) [ClassicSimilarity], result of:
          0.008884721 = score(doc=5134,freq=32.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 5134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.020504642 = weight(_text_:einzelner in 5134) [ClassicSimilarity], result of:
          0.020504642 = score(doc=5134,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.18600342 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.008884721 = weight(_text_:und in 5134) [ClassicSimilarity], result of:
          0.008884721 = score(doc=5134,freq=32.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 5134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.001664921 = product of:
          0.003329842 = sum of:
            0.003329842 = weight(_text_:4 in 5134) [ClassicSimilarity], result of:
              0.003329842 = score(doc=5134,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.07495604 = fieldWeight in 5134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5134)
          0.5 = coord(1/2)
        0.008884721 = weight(_text_:und in 5134) [ClassicSimilarity], result of:
          0.008884721 = score(doc=5134,freq=32.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 5134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.008014404 = product of:
          0.016028808 = sum of:
            0.016028808 = weight(_text_:insgesamt in 5134) [ClassicSimilarity], result of:
              0.016028808 = score(doc=5134,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.16445437 = fieldWeight in 5134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5134)
          0.5 = coord(1/2)
        0.016028808 = weight(_text_:insgesamt in 5134) [ClassicSimilarity], result of:
          0.016028808 = score(doc=5134,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.16445437 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.17073171 = coord(7/41)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  11. Sander-Beuermann, W.: "Gemeinnütziger Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissens-Zugangs" gegründet (2004) 0.01
    0.012354509 = product of:
      0.101306975 = sum of:
        0.013327082 = weight(_text_:und in 3070) [ClassicSimilarity], result of:
          0.013327082 = score(doc=3070,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3673144 = fieldWeight in 3070, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3070)
        0.057995882 = weight(_text_:einzelner in 3070) [ClassicSimilarity], result of:
          0.057995882 = score(doc=3070,freq=4.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.52609706 = fieldWeight in 3070, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3070)
        0.013327082 = weight(_text_:und in 3070) [ClassicSimilarity], result of:
          0.013327082 = score(doc=3070,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3673144 = fieldWeight in 3070, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3070)
        0.003329842 = product of:
          0.006659684 = sum of:
            0.006659684 = weight(_text_:4 in 3070) [ClassicSimilarity], result of:
              0.006659684 = score(doc=3070,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.14991207 = fieldWeight in 3070, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3070)
          0.5 = coord(1/2)
        0.013327082 = weight(_text_:und in 3070) [ClassicSimilarity], result of:
          0.013327082 = score(doc=3070,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3673144 = fieldWeight in 3070, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3070)
      0.12195122 = coord(5/41)
    
    Content
    "Am 5. Juli 2004 ist in Hannover der "Gemeinnützige Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" gegründet worden. Auf der Website http://suma-ev.de sind die ersten Informationen zu finden. In der Presseerklärung heißt es: "Der "Verein zur Förderung der Suchmaschinentechnologie und des freien Wissenszugangs" sieht in der Machtposition einzelner weniger Unternehmen eine Gefährdung des freien Zugangs zum Wissen. Denn dieser Zugang erfolge heutzutage zu einem großen Teil über die Suchmaschinen des Internets, sagt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors am Regionalen Rechenzentrum, Uni-Hannover und ebenfalls Gründungsmitglied des Vereins. Diese Suchmaschinen hätten damit eine Schlüsselrolle in der Informationsgesellschaft übernommen. Suchmaschinen kontrollieren unter anderem: - welche Informationen verfügbar sind, - welche Informationen, wann und von welchem Rechner aus abgerufen wurden, - in welcher Reihenfolge und damit Bewertung die Ergebnisse einer Recherche beim Nutzer angezeigt werden (Ranking). Gerade die Reihenfolge der Ergebnisse ist von außerordentlich hohem kommerziellen Interesse. Diese Bewertung sollte jedoch an der Sache orientiert und dem gesellschaftlichem Interesse verpflichtet sein. Sie hätte vor allem unabhängig von Interessen einzelner Unternehmen und Parteien zu erfolgen, so die Idee des neuen Vereins. Wenn sich in einer solchen Machtposition ein Monopol bildet, könnte obendrein ein derzeit noch kostenlos verfügbarer Dienst kostenpflichtig gemacht werden. Wünschenswerte Weiterentwicklungen werden mangels Konkurrenz verhindert. Diese Situation ist gefährlich für die Informationsgesellschaft. Hier müssen Alternativen offen gehalten werden, die bereits allein durch ihre Struktur und Organisation Monopolbildung unmöglich machen."
    Source
    Online Mitteilungen. 2004, Nr.80, S.15-16 [=Mitteilungen VÖB 57(2004) H.3/4]
  12. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.01
    0.012132834 = product of:
      0.07106374 = sum of:
        0.009060673 = weight(_text_:und in 3635) [ClassicSimilarity], result of:
          0.009060673 = score(doc=3635,freq=52.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24972577 = fieldWeight in 3635, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.016403712 = weight(_text_:einzelner in 3635) [ClassicSimilarity], result of:
          0.016403712 = score(doc=3635,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.14880273 = fieldWeight in 3635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.009060673 = weight(_text_:und in 3635) [ClassicSimilarity], result of:
          0.009060673 = score(doc=3635,freq=52.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24972577 = fieldWeight in 3635, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.008243439 = sum of:
          0.003767286 = weight(_text_:4 in 3635) [ClassicSimilarity], result of:
            0.003767286 = score(doc=3635,freq=4.0), product of:
              0.04442393 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016370254 = queryNorm
              0.084803075 = fieldWeight in 3635, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.015625 = fieldNorm(doc=3635)
          0.004476153 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
            0.004476153 = score(doc=3635,freq=2.0), product of:
              0.057585433 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016370254 = queryNorm
              0.07773064 = fieldWeight in 3635, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.015625 = fieldNorm(doc=3635)
        0.009060673 = weight(_text_:und in 3635) [ClassicSimilarity], result of:
          0.009060673 = score(doc=3635,freq=52.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24972577 = fieldWeight in 3635, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.006411523 = product of:
          0.012823046 = sum of:
            0.012823046 = weight(_text_:insgesamt in 3635) [ClassicSimilarity], result of:
              0.012823046 = score(doc=3635,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1315635 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
        0.012823046 = weight(_text_:insgesamt in 3635) [ClassicSimilarity], result of:
          0.012823046 = score(doc=3635,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.1315635 = fieldWeight in 3635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
      0.17073171 = coord(7/41)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Date
    11. 2.2006 20:15:29
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
    Weitere Rez. in: Mitt. VÖB 58(2005) H.4, S.116-119 (O. Oberhauser)
  13. Junker, M.: Intelligente Suchmaschinen : DFKI koordiniert Projekt für Dokumenterschließungssysteme der nächsten Generation (2000) 0.01
    0.011983124 = product of:
      0.09826161 = sum of:
        0.007107777 = weight(_text_:und in 625) [ClassicSimilarity], result of:
          0.007107777 = score(doc=625,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.19590102 = fieldWeight in 625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=625)
        0.007107777 = weight(_text_:und in 625) [ClassicSimilarity], result of:
          0.007107777 = score(doc=625,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.19590102 = fieldWeight in 625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=625)
        0.007107777 = weight(_text_:und in 625) [ClassicSimilarity], result of:
          0.007107777 = score(doc=625,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.19590102 = fieldWeight in 625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=625)
        0.025646092 = product of:
          0.051292185 = sum of:
            0.051292185 = weight(_text_:insgesamt in 625) [ClassicSimilarity], result of:
              0.051292185 = score(doc=625,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.526254 = fieldWeight in 625, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0625 = fieldNorm(doc=625)
          0.5 = coord(1/2)
        0.051292185 = weight(_text_:insgesamt in 625) [ClassicSimilarity], result of:
          0.051292185 = score(doc=625,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.526254 = fieldWeight in 625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0625 = fieldNorm(doc=625)
      0.12195122 = coord(5/41)
    
    Abstract
    Das DFKI koordiniert das vom BMBF mit rund 20 Mio Mark geförderte Verbundprojekt "Adaptive READ". Ehrgeizige Zielsetzung des am 1. März gestarteten Projekts ist die Entwicklung von Dokumenterschließungssystemen der nächsten Generation. Insgesamt arbeiten 11 Partner aus Wissenschaft und Industrie - davon 7 führende IT-Unternehmen - an Systemen, die sich weitgehend automatisch an konkrete Informationsbedürfnisse eines Unternehmens oder eines Benutzers anpassen.
  14. epd: Kaiserslauterer Forscher untersuchen Google-Suche (2017) 0.01
    0.011749089 = product of:
      0.080285445 = sum of:
        0.008884721 = weight(_text_:und in 3815) [ClassicSimilarity], result of:
          0.008884721 = score(doc=3815,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 3815, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.008884721 = weight(_text_:und in 3815) [ClassicSimilarity], result of:
          0.008884721 = score(doc=3815,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 3815, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.008884721 = weight(_text_:und in 3815) [ClassicSimilarity], result of:
          0.008884721 = score(doc=3815,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 3815, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.016028808 = product of:
          0.032057617 = sum of:
            0.032057617 = weight(_text_:insgesamt in 3815) [ClassicSimilarity], result of:
              0.032057617 = score(doc=3815,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.32890874 = fieldWeight in 3815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3815)
          0.5 = coord(1/2)
        0.032057617 = weight(_text_:insgesamt in 3815) [ClassicSimilarity], result of:
          0.032057617 = score(doc=3815,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.32890874 = fieldWeight in 3815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.0055448585 = product of:
          0.011089717 = sum of:
            0.011089717 = weight(_text_:22 in 3815) [ClassicSimilarity], result of:
              0.011089717 = score(doc=3815,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.19345059 = fieldWeight in 3815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3815)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Content
    "Bei der Suche nach Politikern und Parteien über Suchmaschinen wie Google spielt Personalisierung einem Forschungsprojekt zufolge eine geringere Rolle als bisher angenommen. Bei der Eingabe von Politikernamen erhalten verschiedene Nutzer größtenteils die gleichen Ergebnisse angezeigt, lautet ein gestern veröffentlichtes Zwischenergebnis einer Analyse im Auftrag der Landesmedienanstalten. Die Ergebnisse stammen aus dem Forschungsprojekt "#Datenspende: Google und die Bundestagswahl2017" der Initiative AIgorithmWatch und der Technischen Universität Kaiserslautern. Im Durchschnitt erhalten zwei unterschiedliche Nutzer demnach bei insgesamt neun Suchergebnissen sieben bis acht identische Treffer, wenn sie mit Google nach Spitzenkandidaten der Parteien im Bundestagswahlkampf suchen. Die Suchergebnisse zu Parteien unterscheiden sich allerdings stärker. Bei neun Suchanfragen gebe es hier nur fünf bis sechs gemeinsame Suchergebnisse, fanden die Wissenschaftler heraus. Die Informatikprofessorin Katharina Zweig von der TU Kaiserslautern zeigte sich überrascht, dass die Suchergebisse verschiedener Nutzer sich so wenig unterscheiden. "Das könnte allerdings morgen schon wieder anders aussehen", warnte sie, Die Studie beweise erstmals, dass es grundsätzlich möglich sei, Algorithmen von Intermediären wie Suchmaschinen im Verdachtsfall nachvollziehbar zu machen. Den Ergebnissen zufolge gibt es immer wieder kleine Nutzergruppen mit stark abweichenden Ergebnislisten. Eine abschließende, inhaltliche Bewertung stehe noch aus. Für das Projekt haben nach Angaben der Medienanstalt bisher fast 4000 freiwillige Nutzer ein von den Forschern programmiertes Plug-ln auf ihrem Computer- installiert. Bisher seien damitdrei Millionen gespendete Datensätze gespeichert worden. Das Projekt wird finanziert von den Landesmedienanstalten Bayern, Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen." Vgl. auch: https://www.swr.de/swraktuell/rp/kaiserslautern/forschung-in-kaiserslautern-beeinflusst-google-die-bundestagswahl/-/id=1632/did=20110680/nid=1632/1mohmie/index.html. https://www.uni-kl.de/aktuelles/news/news/detail/News/aufruf-zur-datenspende-welche-nachrichten-zeigt-die-suchmaschine-google-zur-bundestagswahl-an/.
    Date
    22. 7.2004 9:42:33
  15. Mal sehen, was Google hat : Suchmaschinen (2001) 0.01
    0.011689519 = product of:
      0.07987838 = sum of:
        0.012311031 = weight(_text_:und in 4776) [ClassicSimilarity], result of:
          0.012311031 = score(doc=4776,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.33931053 = fieldWeight in 4776, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4776)
        0.012311031 = weight(_text_:und in 4776) [ClassicSimilarity], result of:
          0.012311031 = score(doc=4776,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.33931053 = fieldWeight in 4776, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4776)
        0.004476153 = product of:
          0.008952306 = sum of:
            0.008952306 = weight(_text_:29 in 4776) [ClassicSimilarity], result of:
              0.008952306 = score(doc=4776,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.15546128 = fieldWeight in 4776, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4776)
          0.5 = coord(1/2)
        0.012311031 = weight(_text_:und in 4776) [ClassicSimilarity], result of:
          0.012311031 = score(doc=4776,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.33931053 = fieldWeight in 4776, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4776)
        0.012823046 = product of:
          0.025646092 = sum of:
            0.025646092 = weight(_text_:insgesamt in 4776) [ClassicSimilarity], result of:
              0.025646092 = score(doc=4776,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.263127 = fieldWeight in 4776, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4776)
          0.5 = coord(1/2)
        0.025646092 = weight(_text_:insgesamt in 4776) [ClassicSimilarity], result of:
          0.025646092 = score(doc=4776,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.263127 = fieldWeight in 4776, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.03125 = fieldNorm(doc=4776)
      0.14634146 = coord(6/41)
    
    Abstract
    Zumindest eine Suche hat ein Ende: die nach der besten Suchmaschine. Die Stiftung Warentest hat sie gefunden. Sie heißt www.google.de und hat in, der Untersuchung alle anderen Suchhilfen ziemlich alt aussehen lassen. Denn Google ist kinderleicht zu bedienen, übersichtlich und vor allem treffsicher. Google empfiehlt sich für fast alle Anfragen als erste Anlaufstelle. Darüber hinaus sollte man aber auch andere Suchhilfen konsultieren. Altavista, Lycos und Metager bieten sich als nächste an. Eine erweiterte Recherche kann die Zahl der interessanten Treffer durchaus erhöhen. Mitunter ist es auch ratsam; in enem Katalog zu stöbern.: Vor allem dann, wenn der Suchende kein genaues Ziel hat und: sich nur einen Überblick darüber verschaffen will, was es im Netz so alles gibt. Webkataloge sind im Unterschied zu den Volltextsuch-maschinen von Menschen erstellte Verzeichnisse. Das erhöht die Qualität und stellt sicher, dass zu einem Stichwort ausschließlich relevante Seiten aufgeführt werden. Das Informationsangebot der Kataloge ist jedoch vergleichsweise niedrig. Deshalb leiten sie Anfragen, die sie nicht aus ihrem Fundus beantworten können, meist an eine Suchmaschine weiter. Diejenigen, die glauben, mit Meta-Suchmaschinen mehrere Fliegen mit einer Klappe zu schlagen, werden enttäuscht. Zwar grasen Metager und Co. immer gleichzeitig mehrere Suchmaschinen und Kataloge ab, zu perfekten Ergebnissen führt das aber kaum. Am besten schafft es noch Metager von der Uni Hannover, die den vierten Platz im Test errungen konnte. Um herauszubekommen, welche Suchmaschinen die besten Schätze aus dem unüberschaubaren Datenmeer des weltweiten Netzes heben, haben die Tester 21 elektronische Spürnasen, darunter fünf Metasuchmaschinen und sechs Kataloge, ausführlich ins Verhör genommen. An jede wurden zehn identische Anfragen gerichtet. Die Ergebnisse zeigen, dass die Internetsuche häufig noch einem Stochern um Nebel gleicht. Obwohl für jede Suchmaschine und jede Aufgabe immer von mehreren Anfragemöglichkeiten die mit den besten Ergebnissen gewertet wurde, hatte insgesamt über die Hälfte der angezeigten Treffer rein gar nichts mit dem gesuchten Thema zu tun. Nur eine Suchmaschine, nämlich Google, schaffte es, für alle zehn Fragen wenigstens eine völlig zutreffende Antwort zu finden. Altavista und Metager brachten es immerhin auf neun beantwortete Fragen und Lycos auf acht. MSN Search hatte dagegen nur für eine Frage die richtigen Links parat, und Acoon hinterließ völlige Ratlosigkeit: kein wirklich guter Treffer.
    Footnote
    Vgl.: test 2001, H.9, S.26-29 ("Erst mal sehn, was Google hat")
  16. Hentschel, A.: Was Google & Co. wirklich finden (2007) 0.01
    0.011642456 = product of:
      0.05966759 = sum of:
        0.009402704 = weight(_text_:und in 488) [ClassicSimilarity], result of:
          0.009402704 = score(doc=488,freq=56.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.25915268 = fieldWeight in 488, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=488)
        0.0049934178 = product of:
          0.0099868355 = sum of:
            0.0099868355 = weight(_text_:allgemein in 488) [ClassicSimilarity], result of:
              0.0099868355 = score(doc=488,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.11610576 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.015625 = fieldNorm(doc=488)
          0.5 = coord(1/2)
        0.009402704 = weight(_text_:und in 488) [ClassicSimilarity], result of:
          0.009402704 = score(doc=488,freq=56.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.25915268 = fieldWeight in 488, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=488)
        0.0022380764 = product of:
          0.004476153 = sum of:
            0.004476153 = weight(_text_:29 in 488) [ClassicSimilarity], result of:
              0.004476153 = score(doc=488,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.07773064 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=488)
          0.5 = coord(1/2)
        0.009402704 = weight(_text_:und in 488) [ClassicSimilarity], result of:
          0.009402704 = score(doc=488,freq=56.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.25915268 = fieldWeight in 488, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=488)
        0.0049934178 = product of:
          0.0099868355 = sum of:
            0.0099868355 = weight(_text_:allgemein in 488) [ClassicSimilarity], result of:
              0.0099868355 = score(doc=488,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.11610576 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.015625 = fieldNorm(doc=488)
          0.5 = coord(1/2)
        0.006411523 = product of:
          0.012823046 = sum of:
            0.012823046 = weight(_text_:insgesamt in 488) [ClassicSimilarity], result of:
              0.012823046 = score(doc=488,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.1315635 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.015625 = fieldNorm(doc=488)
          0.5 = coord(1/2)
        0.012823046 = weight(_text_:insgesamt in 488) [ClassicSimilarity], result of:
          0.012823046 = score(doc=488,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.1315635 = fieldWeight in 488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.015625 = fieldNorm(doc=488)
      0.19512194 = coord(8/41)
    
    Content
    "Das Internet wächst und wächst: Im Juni wurde es laut einer Erhebung des englischen Branchendienstes Netcraft aus 122 Millionen Webservern gebildet - im Vergleich zum Vormonat ein Plus von vier Millionen. Wahre Größe zeigt das Web aber erst bei der Anzahl der einzelnen Webseiten: Es sind schätzungsweise 500 Milliarden! Ohne eine gute Suchmaschine geht da nichts, zumal sich die Inhalte ständig ändern: Blogs und Videoportale haben aus dem statischen Web ein dynamisches Medium gemacht, das die Suchtechnologien vor neue Hürden stellt. Die Webindizes müssen immer mehr und sich immer schneller verändernde Dokumenttypen analysieren. Und das sollten die Suchmaschinen zuverlässig tun, denn die Suche ist die wichtigste Anwendung im Internet: 80 Prozent aller deutschen Websurfer recherchieren in Suchmaschinen, statt direkt eine URL in das Browser-Fenster einzutippen. Bei der Wahl der Suchmaschine obsiegt offenbar die Macht der Gewohnheit: Die absolute Mehrheit der Deutschen sucht mit Google - 87 Prozent. Yahoo und Microsofts Live Search (ehemals MSN) bringen es auf mickrige drei Prozent Marktanteil, AOL und T-Online auf jeweils zwei Prozent.
    Wir wollten wissen, ob das scheinbar unerschütterliche Vertrauen in Google gerechtfertigt ist und haben fünf Suchmaschinen gegen Google antreten lassen: Neben Google befinden sich die beiden weiteren Großen Yahoo und Microsoft Live Search im Testfeld, sowie die Websuchen von Ask.com, Abacho und Seekport. Nicht dabei sind Portale wie T-Online oder AOL. Auch wenn diese für viele Nutzer das Einfallstor ins Internet sind: Sie nutzen keine eigenen Suchtechnologien, sondern bedienen sich bei Google oder Yahoo - die Testergebnisse wären hier also identisch gewesen. Soviel vorneweg: Google ist zu recht Marktführer. Denn kein Testkandidat lieferte durchgängig eine so hohe Trefferqualität. Das heißt allerdings nicht, dass die Konkurrenz so schlecht ist, wie es die nackten Marktzahlen vermuten ließen. Bei der Video- oder News-Suche beispielsweise ist Ask.com besser als Google. Eine komplette Enttäuschung ist Microsofts Live Search, die bei der Qualität der Suchergebnisse selbst vom kleinen Anbieter Abacho geschlagen wurde. Für den Test fütterten wir jede Suchmaschine mit insgesamt 25 Suchbegriffen. Je zehnmal stellten wir allgemeine Suchanfragen, je fünfmal suchten wir nach News, Bildern und Videos. Bei allgemeinen Fragen ist Google unschlagbar. Nur ein paar Beispiele: Sie suchen nach "Wetter in Merching" und bekommen oberhalb der Trefferliste die Wettervorhersage angezeigt - selbst für ein kleines Dorf. "Zugverbindung Hamburg München" führt Sie mit einem Klick zur Übersicht mit den nächsten Zügen. Der Wunsch nach "Download Firmware Plextor PX716" wird mit dem direkten Link zur Plextor-Webseite belohnt. "15,66 Dollar in Euro" zeigt direkt den aktuellen Umrechnungskurs an.
    Wie hat uns dagegen die Konkurrenz in die Irre geschickt: Statt Wetter in Merching bekamen wir die Seite der freiwilligen Feuerwehr (Ask.com), statt einer Zugverbindung das Angebot, einen Flug zu buchen (Seekport), statt Firmware Spam, statt Umrechnungskursen Börsennachrichten. Ein wenig schwächelte Google bei zwei Begriffen: "Aktienkurs Telekom" und "Strompreis Übersicht". Hier zeigte Yahoo bessere Ergebnisse - beispielsweise gleich oberhalb der Trefferliste einen Kurs-Chart für die T-Aktie. Für eine wichtige Frage blieben uns alle Suchmaschinen die Antwort schuldig: "Wie heißt der Soldat bei Biene Maja?" Auch bei der Bildersuche überzeugte Google auf der ganzen Linie - zu jedem unserer fünf Begriffe fanden wir genügend gute Treffer. Alle anderen leisteten sich dagegen Ausrutscher: So findet Ask Apples "iPhone" und das CD-Cover des Wir-sind-Helden-Albums "Soundso" nicht. Abacho, Yahoo und Live Search können mit Gilbert & Georges Kunstwerk "Are You Angry Or Are You Boring" nichts anfangen. Bei Seekport konnten wir uns die Mühe sparen - es gibt keine Bildersuche. Videos werden von Seekport ebenfalls ignoriert. Auch bei Abacho fehlt diese Spezialsuche, allerdings hilft die ordinäre Websuche bisweilen: Die Anfrage "Stromberg Herr Loermann" führte uns beispielsweise zum Videoportal Maxdome mit Trailern und dem Stream der Comedy-Serie. Ask, Live Search und Google unterscheiden sich in der Videosuche nur marginal. Bei Google werden Treffer aus dem eigenen Videoportal YouTube offenbar bevorzugt behandelt, dafür gibt es leichten Punktabzug. Ansonsten schwankt die Qualität der Ergebnisse je nach Suchbegriff. Mit "White Stripes Icky Thump" fanden wir bei dem Trio zuverlässig zum neuen Video der amerikanischen Rockband. Auch der "Apple 1984 Superbowl" Werbespot war für die drei kein Problem, lediglich bei der Stromberg-Episode blieben die Ergebnislisten nahezu leer.
    Leere Listen sahen wir bei der Yahoo-Video-Suche hingegen entschieden zu oft - sie enttäuschte weitgehend. Mit seiner News-Suche überzeugte Yahoo schon eher und landete hier nur knapp hinter Google. Google selbst hat manchmal Probleme mit News-Übersichten und interpretiert Schlagzeilen-Übersichten als eigene Artikel. Das führt zu falschen Ergebnissen. Die besten News-Treffer landeten wir bei Ask.com, allerdings ist die Suche versteckt - in einem Reiter unter Blog-Suche. Einmal gefunden, bekommt man aber zuverlässig sehr viele relevante Nachrichten. Abacho hat keine eigene News-Suche, immerhin wird der Index aber so schnell aktualisiert, dass wir zu unseren News-Fragen "Saul Friedländer Friedenspreis" oder "Telekom Verdi" wenigstens ein paar verwertbare Webseiten fanden. Bei Live Search hingegen erhielten wir bei tagesaktuellen Suchbegriffen praktisch keine brauchbaren News. Jede Suche fördert Unmassen von Treffern zu Tage. Auf die relevanten Ergebnisse eingrenzen lassen sich diese nur mit Filtern oder gezielteren Suchanfragen. Allgemein verbreiteter Suchmaschinen-Standard sind die Boolschen Verknüpfungen mehrerer Suchbegriffe (und/oder/nicht). Die Begrenzung der Suche auf bestimmte Sprachen oder Zeiträume lassen auch die meisten Testkandidaten zu (siehe Testtabelle, S 76). Vermisst haben wir bei Live Search, Abacho und Seekport die Möglichkeit, nach verschiedenen Dokumenttypen zu suchen. Mit Google und Yahoo lässt sich die Suche auf Word-, Excel-Dateien oder PDFs beschränken - bei Ask immerhin auf diverse Videoformate. Ein sehr nettes Feature bieten bisher erstaunlicherweise nur die kleinen Suchmaschinen an: die Seitenvorschau. Ask, Abacho und Seekport blenden auf Maus-klick den Treffer direkt auf der Suchmaschinenseite ein - so kann man sich schnell einen Eindruck verschaffen, ob einem die gefundene Webseite weiterhilft. Besonders schön ist die Lösung von Ask: Die Vorschau wird hier als kleines Popup eingeblendet, sobald man mit der Maus über den Vorschau-Link fährt. Begeistern konnten wir uns auch für die Video-Vorschau von Ask, die als einzige Suchmaschine einige Sekunden des Clips anzeigt, wenn man mit der Maus auf das Vorschaubildchen geht.
    Im Web stößt man schnell auf dubiose Seiten. Gut, wenn die Suchmaschine schon in der Trefferliste Porno und Schadcode aussortiert. Am sichersten surfen Sie diesbezüglich mit Google. Sie werden beim Testsieger bereits in der Trefferliste vor Seiten gewarnt, die im Verdacht stehen, Malware zu verbreiten. Das bietet sonst keine andere Suchmaschine. Außerdem können Sie einen dreistufigen Filter setzen, der nicht jugendfreie Seiten aus den Trefferlisten entfernt - ein Service, den bis auf Live Search und Seekport aber auch alle anderen bieten. Kritikpunkt: Diese erweiterten Sicherheitsfunktionen lassen sich nur nutzen, wenn Sie Cookies akzeptieren - obwohl es technisch auch anders lösbar wäre. Dahinter steckt nur das Interesse an genauen Nutzerprofilen. Weil wir eher für einen sensiblen Umgang mit Daten plädieren, gibt es dafür leichte Punktabzüge. Suchmaschinen wie Google und Ask sind an Simplizität nicht mehr zu übertreffen. Außer dem Suchfeld und Reitern für Bilder-, News- oder Produktsuche bleibt die Seite leer. Kritisch sehen wir die Kennzeichnung der Werbung. Die meisten Suchmaschinen hinterlegen die verkauften Links dezent farbig. Aber bisweilen so dezent, dass es bei schlecht kalibrierten Monitoren nicht zu sehen ist. Seekport und Abacho machen es anders - aber nicht besser. Sie grenzen die Werbung durch grafische Elemente ab, die eher verschleiern als verdeutlichen, dass es sich um gesponserte Links handelt. Die Hilfe-Funktionen sind durchweg brauchbar, bis auf eine kleine Ausnahme: Live Search verspricht in seiner Hilfe Funktionen, die es noch gar nicht gibt - immerhin erlauben diese offenbar einen Blick in die weiteren Planungen. Abachos Hilfe ist eher minimalistisch - mehr als die Boolschen Filter werden nicht erklärt. Google und Yahoo hingegen haben umfangreiche Dokumentationen. Wer sich ausführlich damit beschäftigt, kann durchaus zu besseren Ergebnissen gelangen. Bei Yahoo beispielsweise fanden wir den Hilfe-Hinweis auf den Yahoo-Service "Answers", bei dem andere Nutzer offene Fragen beantworten. Wir fragten dort noch einmal nach dem Namen des Soldaten bei Biene Maja. Die Antwort kam innerhalb von drei Minuten: Er heißt Paul Emsig."
    Date
    8. 8.2007 19:29:12
  17. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.01
    0.011427715 = product of:
      0.09370726 = sum of:
        0.008795425 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.008795425 = score(doc=345,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24241515 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.008795425 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.008795425 = score(doc=345,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24241515 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.008795425 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.008795425 = score(doc=345,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24241515 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.022440331 = product of:
          0.044880662 = sum of:
            0.044880662 = weight(_text_:insgesamt in 345) [ClassicSimilarity], result of:
              0.044880662 = score(doc=345,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46047226 = fieldWeight in 345, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=345)
          0.5 = coord(1/2)
        0.044880662 = weight(_text_:insgesamt in 345) [ClassicSimilarity], result of:
          0.044880662 = score(doc=345,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.46047226 = fieldWeight in 345, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
      0.12195122 = coord(5/41)
    
    Abstract
    In diesem Kapitel wird ein Überblick über bestehende semantische Suchmaschinen gegeben. Insgesamt werden 95 solcher Suchdienste identifiziert und im Rahmen einer Inhaltsanalyse verglichen. Es kann festgestellt werden, dass die Semantische Suche sich wesentlich von den im Rahmen des Semantic Web propagierten Technologien unterscheidet und Semantik in den betrachteten Suchmaschinen weiter zu fassen ist. Die betrachteten Suchmaschinen werden in ein Stufenmodell, welches nach dem Grad der Semantik unterscheidet, eingeordnet. Das Kapitel schließt mit 8 Thesen zum aktuellen Stand der semantischen Suche.
  18. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.01
    0.011356465 = product of:
      0.093123004 = sum of:
        0.014733644 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.014733644 = score(doc=386,freq=22.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.40608138 = fieldWeight in 386, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
        0.041009285 = weight(_text_:einzelner in 386) [ClassicSimilarity], result of:
          0.041009285 = score(doc=386,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.37200683 = fieldWeight in 386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
        0.014733644 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.014733644 = score(doc=386,freq=22.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.40608138 = fieldWeight in 386, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
        0.007912795 = product of:
          0.01582559 = sum of:
            0.01582559 = weight(_text_:29 in 386) [ClassicSimilarity], result of:
              0.01582559 = score(doc=386,freq=4.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2748193 = fieldWeight in 386, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=386)
          0.5 = coord(1/2)
        0.014733644 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.014733644 = score(doc=386,freq=22.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.40608138 = fieldWeight in 386, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
      0.12195122 = coord(5/41)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
    Date
    13. 5.2007 10:29:29
  19. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.01
    0.01105196 = product of:
      0.07552173 = sum of:
        0.016158229 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.016158229 = score(doc=329,freq=54.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.012358079 = product of:
          0.024716157 = sum of:
            0.024716157 = weight(_text_:allgemein in 329) [ClassicSimilarity], result of:
              0.024716157 = score(doc=329,freq=4.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.28734708 = fieldWeight in 329, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=329)
          0.5 = coord(1/2)
        0.016158229 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.016158229 = score(doc=329,freq=54.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.0023308892 = product of:
          0.0046617785 = sum of:
            0.0046617785 = weight(_text_:4 in 329) [ClassicSimilarity], result of:
              0.0046617785 = score(doc=329,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.10493845 = fieldWeight in 329, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=329)
          0.5 = coord(1/2)
        0.016158229 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.016158229 = score(doc=329,freq=54.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.012358079 = product of:
          0.024716157 = sum of:
            0.024716157 = weight(_text_:allgemein in 329) [ClassicSimilarity], result of:
              0.024716157 = score(doc=329,freq=4.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.28734708 = fieldWeight in 329, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=329)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
    Isbn
    978-3-89838-607-4
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
  20. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.01
    0.010789851 = product of:
      0.08847678 = sum of:
        0.016669214 = weight(_text_:und in 3023) [ClassicSimilarity], result of:
          0.016669214 = score(doc=3023,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4594286 = fieldWeight in 3023, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.016669214 = weight(_text_:und in 3023) [ClassicSimilarity], result of:
          0.016669214 = score(doc=3023,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4594286 = fieldWeight in 3023, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.016669214 = weight(_text_:und in 3023) [ClassicSimilarity], result of:
          0.016669214 = score(doc=3023,freq=44.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.4594286 = fieldWeight in 3023, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.012823046 = product of:
          0.025646092 = sum of:
            0.025646092 = weight(_text_:insgesamt in 3023) [ClassicSimilarity], result of:
              0.025646092 = score(doc=3023,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.263127 = fieldWeight in 3023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3023)
          0.5 = coord(1/2)
        0.025646092 = weight(_text_:insgesamt in 3023) [ClassicSimilarity], result of:
          0.025646092 = score(doc=3023,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.263127 = fieldWeight in 3023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.12195122 = coord(5/41)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.2, S.19-28

Years

Languages

  • d 482
  • e 251
  • f 3
  • chi 2
  • nl 2
  • More… Less…

Types

  • a 619
  • m 67
  • el 61
  • x 13
  • s 12
  • p 2
  • r 2
  • More… Less…

Subjects

Classifications