Search (325 results, page 1 of 17)

  • × theme_ss:"Suchmaschinen"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.05
    0.047115713 = product of:
      0.17668392 = sum of:
        0.028586745 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.028586745 = score(doc=284,freq=14.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.021853376 = product of:
          0.043706752 = sum of:
            0.043706752 = weight(_text_:bibliothekswesen in 284) [ClassicSimilarity], result of:
              0.043706752 = score(doc=284,freq=2.0), product of:
                0.1267761 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028439978 = queryNorm
                0.34475547 = fieldWeight in 284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=284)
          0.5 = coord(1/2)
        0.0631219 = weight(_text_:informationswissenschaft in 284) [ClassicSimilarity], result of:
          0.0631219 = score(doc=284,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.0631219 = weight(_text_:informationswissenschaft in 284) [ClassicSimilarity], result of:
          0.0631219 = score(doc=284,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.26666668 = coord(4/15)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
  2. Wolff, C.: Effektivität von Recherchen im WWW : Vergleichende Evaluierung von such- und Metasuchmaschinen (2000) 0.03
    0.031360865 = product of:
      0.15680432 = sum of:
        0.030560518 = weight(_text_:und in 5463) [ClassicSimilarity], result of:
          0.030560518 = score(doc=5463,freq=16.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.4848303 = fieldWeight in 5463, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
        0.0631219 = weight(_text_:informationswissenschaft in 5463) [ClassicSimilarity], result of:
          0.0631219 = score(doc=5463,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 5463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
        0.0631219 = weight(_text_:informationswissenschaft in 5463) [ClassicSimilarity], result of:
          0.0631219 = score(doc=5463,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 5463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
      0.2 = coord(3/15)
    
    Abstract
    Der vorliegende Beitrag befasst sich mit der Informationssuche im World Wide Web und ihrer Evaluierung. Ausgehend von einer Zusammenschau der wesentlichen Merkmale des World Wide Web als heterogener Dokumentkollektion (Kap. 1) werden Aufbau und Merkmale von Suchmaschinen und Metasuchmaschinen eingeführt sowie die Problematik der Evaluierung von Suchmaschinen und eine Übersicht bisheriger Ergebnisse diskutiert (Kap. 2). In Kap. 3 werden Aufbau, Durchführung und Ergebnisse einer Vergleichstudie vorgestellt, bei der mit Hilfe eines paper-and-pencil-Experiments ausgewählte Such- und Metasuchmaschinen evaluiert wurden. Schließlich zieht Kap. 4 Schlussfolgerungen aus dieser Studie und gibt einen Ausblick auf Optimierungsmöglichkeiten für Suchmaschinen
    Series
    Schriften zur Informationswissenschaft; Bd.38
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  3. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.03
    0.030852074 = product of:
      0.15426037 = sum of:
        0.026734883 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.026734883 = score(doc=1159,freq=6.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.06376275 = weight(_text_:informationswissenschaft in 1159) [ClassicSimilarity], result of:
          0.06376275 = score(doc=1159,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.49770427 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.06376275 = weight(_text_:informationswissenschaft in 1159) [ClassicSimilarity], result of:
          0.06376275 = score(doc=1159,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.49770427 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.2 = coord(3/15)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  4. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.03
    0.026195949 = product of:
      0.13097975 = sum of:
        0.028959362 = weight(_text_:und in 5523) [ClassicSimilarity], result of:
          0.028959362 = score(doc=5523,freq=44.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.4594286 = fieldWeight in 5523, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.051010195 = weight(_text_:informationswissenschaft in 5523) [ClassicSimilarity], result of:
          0.051010195 = score(doc=5523,freq=8.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.3981634 = fieldWeight in 5523, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.051010195 = weight(_text_:informationswissenschaft in 5523) [ClassicSimilarity], result of:
          0.051010195 = score(doc=5523,freq=8.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.3981634 = fieldWeight in 5523, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.2 = coord(3/15)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  5. Schulz, U.: Search engine usability : über die Nutzungsqualität von Suchmaschinen (2001) 0.02
    0.023600137 = product of:
      0.118000686 = sum of:
        0.02782655 = weight(_text_:und in 5776) [ClassicSimilarity], result of:
          0.02782655 = score(doc=5776,freq=26.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.441457 = fieldWeight in 5776, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
        0.04508707 = weight(_text_:informationswissenschaft in 5776) [ClassicSimilarity], result of:
          0.04508707 = score(doc=5776,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.35193008 = fieldWeight in 5776, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
        0.04508707 = weight(_text_:informationswissenschaft in 5776) [ClassicSimilarity], result of:
          0.04508707 = score(doc=5776,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.35193008 = fieldWeight in 5776, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
      0.2 = coord(3/15)
    
    Abstract
    Web Usability konnte sich als Forschungsbereich zunächst nur in größeren Firmen der Internet-Branche wie z. B. Icon Medialab etablieren. Mit zunehmender Konkurrenz und ersten Pleiten im E-Commerce entsteht die Einsicht oder bittere Erfahrung, dass bunte, multimediale Internetpräsenz nicht alles ist: Die Nutzungsqualität von Websites tritt in den Vordergrund und damit ein neuer Arbeitsmarkt für Informationsarchitekten und HCI- bzw. Usability-Spezialisten. Suchmaschinen sind eine besondere Kategorie von Website. Sie entstehen in einem Spannungsfeld zweier unterschiedlicher Interessen: Mit kommerziellen Websites teilen sie den Wettbewerb um Kunden und die Art der Kunden: den ungeduldigen gelegentlichen Anwender. Mit der akademischen Welt teilen sie das forschende Bemühen um die Optimierung von Features und Funktionen und die déformation professionelle der Eingeweihten. Am Beispiel zweier Untersuchungen wird deutlich, wie es der richtige 'Methodenmix' ermöglicht, bei der Evaluation der Nutzungsqualität von Suchmaschinen ganz unterschiedlicher Art (a) diesen Interessenkonflikt bewusst zu machen, (b) Empathie für die Nöte der Kunden zu entwickeln und c) allgemeingültige Kriterien zur Entwicklung gebrauchstauglicher Suchmaschinen aufzustellen. Beide Untersuchungen fanden im Rahmen des Projekts Jorschung und Forschungsumgebung für Web Usability« unter Mitwirkung von Studierenden am Fachbereich Bibliothek und Information der FH Hamburg statt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  6. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.02
    0.021989172 = product of:
      0.10994586 = sum of:
        0.03362061 = weight(_text_:buch in 1333) [ClassicSimilarity], result of:
          0.03362061 = score(doc=1333,freq=4.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.25426245 = fieldWeight in 1333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.021609548 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.021609548 = score(doc=1333,freq=32.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.0547157 = sum of:
          0.041229416 = weight(_text_:nutzung in 1333) [ClassicSimilarity], result of:
            0.041229416 = score(doc=1333,freq=4.0), product of:
              0.14642802 = queryWeight, product of:
                5.1486683 = idf(docFreq=697, maxDocs=44218)
                0.028439978 = queryNorm
              0.2815678 = fieldWeight in 1333, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.1486683 = idf(docFreq=697, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1333)
          0.013486285 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
            0.013486285 = score(doc=1333,freq=2.0), product of:
              0.099591956 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028439978 = queryNorm
              0.1354154 = fieldWeight in 1333, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1333)
      0.2 = coord(3/15)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
  7. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.02
    0.017745549 = product of:
      0.06654581 = sum of:
        0.016980972 = weight(_text_:buch in 1721) [ClassicSimilarity], result of:
          0.016980972 = score(doc=1721,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.12842192 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.017683461 = weight(_text_:und in 1721) [ClassicSimilarity], result of:
          0.017683461 = score(doc=1721,freq=42.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.280541 = fieldWeight in 1721, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.015940687 = weight(_text_:informationswissenschaft in 1721) [ClassicSimilarity], result of:
          0.015940687 = score(doc=1721,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.12442607 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.015940687 = weight(_text_:informationswissenschaft in 1721) [ClassicSimilarity], result of:
          0.015940687 = score(doc=1721,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.12442607 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.26666668 = coord(4/15)
    
    Abstract
    Unendlich weit. Über Jahrzehnte wuchs das Internet zum Wissenskosmos. Neue Suchstrategien erschließen Nutzern die verborgenen Informationen. Mit Bezugnahme auf das Invisible Web (Grafik) und Stellungnahmen von W.G. Stock (Bild), W. Sander-Beuermann (MetaGer) (Bild) u. M. Henzinger (google.de) (Bild)
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  8. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.01
    0.013017515 = product of:
      0.06508757 = sum of:
        0.015123534 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.015123534 = score(doc=4093,freq=12.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.23992877 = fieldWeight in 4093, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4093)
        0.02640437 = product of:
          0.05280874 = sum of:
            0.05280874 = weight(_text_:informationsvermittlung in 4093) [ClassicSimilarity], result of:
              0.05280874 = score(doc=4093,freq=2.0), product of:
                0.18434656 = queryWeight, product of:
                  6.481951 = idf(docFreq=183, maxDocs=44218)
                  0.028439978 = queryNorm
                0.28646448 = fieldWeight in 4093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.481951 = idf(docFreq=183, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
        0.023559665 = product of:
          0.04711933 = sum of:
            0.04711933 = weight(_text_:nutzung in 4093) [ClassicSimilarity], result of:
              0.04711933 = score(doc=4093,freq=4.0), product of:
                0.14642802 = queryWeight, product of:
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.028439978 = queryNorm
                0.32179177 = fieldWeight in 4093, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
    Source
    Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. 3. Aufl. Hrsg.: M. Machill u. C. Welp
  9. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.01
    0.012510324 = product of:
      0.06255162 = sum of:
        0.017917693 = weight(_text_:und in 2936) [ClassicSimilarity], result of:
          0.017917693 = score(doc=2936,freq=22.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.28425696 = fieldWeight in 2936, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
        0.02231696 = weight(_text_:informationswissenschaft in 2936) [ClassicSimilarity], result of:
          0.02231696 = score(doc=2936,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.1741965 = fieldWeight in 2936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
        0.02231696 = weight(_text_:informationswissenschaft in 2936) [ClassicSimilarity], result of:
          0.02231696 = score(doc=2936,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.1741965 = fieldWeight in 2936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
      0.2 = coord(3/15)
    
    Abstract
    Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
    Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  10. FR: Google für Wissenschaftler (2004) 0.01
    0.011967044 = product of:
      0.08975283 = sum of:
        0.06792389 = weight(_text_:buch in 1977) [ClassicSimilarity], result of:
          0.06792389 = score(doc=1977,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.5136877 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.02182894 = weight(_text_:und in 1977) [ClassicSimilarity], result of:
          0.02182894 = score(doc=1977,freq=4.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.34630734 = fieldWeight in 1977, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.13333334 = coord(2/15)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  11. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.01
    0.01189556 = product of:
      0.0594778 = sum of:
        0.021220155 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.021220155 = score(doc=3183,freq=42.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.3366492 = fieldWeight in 3183, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.019128822 = weight(_text_:informationswissenschaft in 3183) [ClassicSimilarity], result of:
          0.019128822 = score(doc=3183,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.14931127 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.019128822 = weight(_text_:informationswissenschaft in 3183) [ClassicSimilarity], result of:
          0.019128822 = score(doc=3183,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.14931127 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.2 = coord(3/15)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
  12. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.01
    0.011334017 = product of:
      0.056670085 = sum of:
        0.028817665 = weight(_text_:buch in 3068) [ClassicSimilarity], result of:
          0.028817665 = score(doc=3068,freq=4.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.21793923 = fieldWeight in 3068, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
        0.0153580215 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.0153580215 = score(doc=3068,freq=22.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.24364883 = fieldWeight in 3068, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
        0.012494399 = product of:
          0.024988798 = sum of:
            0.024988798 = weight(_text_:nutzung in 3068) [ClassicSimilarity], result of:
              0.024988798 = score(doc=3068,freq=2.0), product of:
                0.14642802 = queryWeight, product of:
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.028439978 = queryNorm
                0.17065585 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  13. dpa/fr: Google scannt nun Zeitungen : Schon Millionen Artikel im "Online-Archiv" (2008) 0.01
    0.010641184 = product of:
      0.079808876 = sum of:
        0.01091447 = weight(_text_:und in 2224) [ClassicSimilarity], result of:
          0.01091447 = score(doc=2224,freq=4.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.17315367 = fieldWeight in 2224, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2224)
        0.06889441 = sum of:
          0.041647997 = weight(_text_:nutzung in 2224) [ClassicSimilarity], result of:
            0.041647997 = score(doc=2224,freq=2.0), product of:
              0.14642802 = queryWeight, product of:
                5.1486683 = idf(docFreq=697, maxDocs=44218)
                0.028439978 = queryNorm
              0.28442642 = fieldWeight in 2224, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.1486683 = idf(docFreq=697, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2224)
          0.02724641 = weight(_text_:22 in 2224) [ClassicSimilarity], result of:
            0.02724641 = score(doc=2224,freq=4.0), product of:
              0.099591956 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028439978 = queryNorm
              0.27358043 = fieldWeight in 2224, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2224)
      0.13333334 = coord(2/15)
    
    Content
    "Der immer noch als "Internet-Suchmaschine" firmierende Mega-Konzern Google legt nun auch seine Hände auf Zeitungen. Er will ein Online-Archiv für Zeitungen aus aller Welt aufbauen. Nutzer sollen Artikel durchsuchen und Seiten im Original-Layout samt Fotos und Anzeigen aufrufen können, erklärte die Firma am Montag bei der Technologie-Konferenz Techcrunch 50 in San Francisco. Man habe bereits Millionen von Artikeln eingescannt. Wie viele Zeitungen derzeit schon mitarbeiten, teilte Google nicht mit. Die Archivierung sei Teil der Strategie, "Offline-Inhalte in das Internet zu bringen", sagte Google-Vizepräsidentin Marissa Mayer. Man wolle Lesern "helfen", von der Lokalzeitung bis zum größten überregionalen Blatt "alle zu finden", hieß es im offiziellen Blog des Konzerns. Anders als bei der Digitalisierung von Büchern will man bei dem Zeitungsprojekt die Zustimmung der Verleger einholen. Die Kosten fürs Einscannen trägt Google, denn man spekuliert auf eine lukratives Geschäft durch die Anzeigen, die man neben den Suchergebnissen platzieren will. Die Verleger sollen einen - von Mayer aber nicht bezifferten - Anteil des Umsatzes erhalten. Der Bundesverband Deutscher Zeitungsverleger (BDZV) verweist darauf, dass die Verlage gefragt würden, ob sie der Google-Nutzung zustimmen. Für einige Blätter könne die Zusammenarbeit interessant sein - gleichwohl würden die Inhalte "aus der Hand gegeben", sagte eine BDZV-Sprecherin."
    Date
    17. 7.1996 9:33:22
    14. 9.2008 17:11:22
  14. Zschunke, P.: Schneller weg : "Lastminute" war das häufigste Suchwort, nach dem beim deutschen "Google" gefahndet wurde (2003) 0.01
    0.010467832 = product of:
      0.05233916 = sum of:
        0.027169555 = weight(_text_:buch in 1386) [ClassicSimilarity], result of:
          0.027169555 = score(doc=1386,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.20547508 = fieldWeight in 1386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=1386)
        0.017463153 = weight(_text_:und in 1386) [ClassicSimilarity], result of:
          0.017463153 = score(doc=1386,freq=16.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.27704588 = fieldWeight in 1386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1386)
        0.007706449 = product of:
          0.015412898 = sum of:
            0.015412898 = weight(_text_:22 in 1386) [ClassicSimilarity], result of:
              0.015412898 = score(doc=1386,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.15476047 = fieldWeight in 1386, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1386)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Wer im Internet die Suchmaschine Google anwirft, will oft ganz schnell weg. Der am häufigsten in die Suchzeile eingetippte Begriff war im vergangenen Jahr in Deutschland das Wort "Lastminute". Gleich dahinter folgt ein Name, der preisbewusste Reisende: derzeit immer häufiger interessiert: "Ryanair". Hingegen taucht die sonst so gern mit dem Internet verbundene Erotik in der Hitliste 2002 kaum auf - allenfalls noch mit der "Loveparade" auf Platz zehn. Das Fernweh der Internet-Nutzer in Deutschland zeigt sich auch noch in den millionenfach eingegebenen Suchbegriffen Deutsche Bahn" auf Platz sechs und "Mallorca" auf Platz neun. In ganz andere Welten träumen wollen sich auch Surfer, die den Herrn der Ringe" suchten - sei es als Film, im Buch oder in sonstiger Form. Die Google-Besucher in Deutschland interessieren sich offenbar auch für Schnäppchen, und zwar besonders oft bei Aldi (Platz drei) und bei Tchibo (Platz acht). In einer Extra-Statistik der Suchbegriffe ergründet Google die Favoriten bei den Automarken. Hier liegen BMW vor Ferrari, Audi, VW und Porsche, gefolgt von Mercedes und Ford. Bei den Popstars ist Shakira auch im Internet ganz vorn, danach stoßen Jennifer Lopez und Britney Spears auf das meiste Interesse der deutschen Internet-Nutzer. - Männer suchen am häufigsten - Dass diese immer noch eher männlich sind, zeigt die Tatsache, dass erst auf Platz sechs ein männlicher Popstar zu finden ist - und dann auch noch einer, der eher ein männliches Publikum findet, nämlich Eminem. Dafür ist immerhin der Schauspieler Brad Pitt als ausgewiesener Frauenschwarm hinter dem Rapper auf Platz zwei, wenn es um die international häufigsten Suchanfragen nach Bilddateien von männlichen Personen geht. In dieser weltweiten Google-Gemeinde, die im vergangenen Jahr 55 Milliarden Mal auf den Such-Button geklickt oder alternativ die Enter-Taste gedrückt hat, landete Shakira ebenfalls weit oben. Nur der Filmtitel "Spiderman" wurde noch häufiger abgefragt. Neben besonders aktuellen Suchbegriffen haben die Google-Statistiker auch die Begriffe erfasst, die 2001 noch sehr großes Interesse fanden, dieses im vergangenen Jahr aber weitgehend einbüßten. Bei diesen Verlierern liegen der Endzeit-Seher Nostradamus, die gescheiterte Musiktauschbörse Napster und das World Trade Center in New York auf den vorderen Plätzen. Aber auch Osama bin Laden, die Taliban oder das Pentagon lösten zuletzt keinen Suchmaschinen-Ansturm mehr aus.
    Date
    3. 5.1997 8:44:22
  15. Hentschel, A.; Schmidt, M.: Google: erste Krise (2008) 0.01
    0.01003955 = product of:
      0.05019775 = sum of:
        0.020377167 = weight(_text_:buch in 1812) [ClassicSimilarity], result of:
          0.020377167 = score(doc=1812,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.1541063 = fieldWeight in 1812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1812)
        0.017326184 = weight(_text_:und in 1812) [ClassicSimilarity], result of:
          0.017326184 = score(doc=1812,freq=28.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.27487293 = fieldWeight in 1812, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1812)
        0.012494399 = product of:
          0.024988798 = sum of:
            0.024988798 = weight(_text_:nutzung in 1812) [ClassicSimilarity], result of:
              0.024988798 = score(doc=1812,freq=2.0), product of:
                0.14642802 = queryWeight, product of:
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.028439978 = queryNorm
                0.17065585 = fieldWeight in 1812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1812)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Die Nummer eins der Suchmaschinen strauchelt. Die Erfolgsstory von Web 2.0 und Social Networks bereitet Google Probleme. Der Gigant sieht seine Nutzer nicht mehr
    Content
    "Am 7. September feiert die Google-Seite ihren zehnten Geburtstag. Die Bilanz dieser Dekade ist durchaus überwältigend. Gerade bescheinigte das Marktforschungs-Unternehmen comScore Google einen Anteil von 61,6 Prozent am weltweiten Suchmaschinen-Markt. Der Gigant aus Mountain View machte letztes Jahr 16,5 Milliarden US-Dollar Umsatz und erwirtschaftete 4,2 Milliarden US-Dollar Gewinn - gegenüber 2006 ein Plus von bemerkenswerten 30 Prozent. Viele Gründe zum Feiern. Eigentlich. Doch die Stimmung beim weltgrößten Suchmaschinen-Betreiber ist getrübt. Die gleichen Marktforscher sagen Google nämlich ein Ende der glorreichen Zeiten voraus. Die Gründe: Die User verstecken sich vor Google, klicken seltener auf Werbebanner und achten stärker denn je auf ihre Privatsphäre im Internet. In den USA schrumpfte das Anzeigengeschäft allein von Dezember 2007 bis Januar 2008 um sieben Prozent. Der Aktienkurs der Suchmaschine brach ob dieser Zurückhaltung ein, seit letztem November verlor Google 40 Prozent seines Börsenwertes - immerhin 80 Milliarden US-Dollar. Das rückläufige Geschäft verdeutlicht ein gravierendes Problem. Es wird für Google immer schwerer, Werbung dort einzublenden, wo die Webnutzer sind. Die Platzierung funktioniert vereinfacht so: Um seinen Webseitenindex aktuell zu halten, schickt Google Crawler durch das Web. Sie erfassen für das Indizierungs-Programm Google-bot die Inhalte der Webseiten - anhand häufig auftauchender Begriffe sowie von Content- und Title-Tags. So weiß Google, auf welchen Seiten welche Inhalte stehen und kann passende Werbung schalten. In Zeiten dröger HTML-Seiten war das mehr als ausreichend. Doch das Web hat sich schneller geändert als Google seinen Googlebot. Der nämlich kann nicht alle Seitenformate erfassen. Die Inhalte von Flash-Dateien und dynamischen Webseiten etwa bleiben außen vor, zielgenaue Werbung lässt sich hier nicht schalten. Dummerweise boomen ausgerechnet diese Formate im populären "Web 2.0". Eigentlich ein rein technisches Problem, für das die Suchmaschine noch keine Lösung hat.
    Doch auch mit den Menschen im Internet hadert Google. Schon vergangenes Jahr bettelte Google-Chef Eric Schmidt bei den Nutzern um die Preisgabe persönlicher Informationen: "Wir können nicht einmal die einfachsten Fragen beantworten, weil wir zu wenig über euch wissen" Dass es Probleme geben könnte, wusste Google freilich schon länger. Wie verzweifelt die Führungsriege tatsächlich ist, zeigen die 900 Millionen Dollar, mit denen sich die Suchmaschine im Sommer 2006 in die Web-Community MySpace einkaufte. Der Deal klingt eigentlich absurd - schließlich zahlte der Branchen-Primus das Geld, damit er seinen Such-Service anbieten kann. Natürlich ist das nur die halbe Geschichte. ,Wir halten es für wichtig, dass wir Google dorthin bringen, wo die User sind, und die wenden sich immer stärker Seiten mit selbst geschaffenen Inhalten zu", sagte seinerzeit Eric Schmidt. Doch die User verstecken sich, schalten ihre Profile auf den Status "Privat" und sind damit weiterhin unsichtbar und wertlos für Google. Und so geht es der Suchmaschine in nahezu jedem Social Network: Weltweit etwa 300 Millionen Nutzer solcher Netzwerke bekommt Google nicht zu Gesicht. Xing, facebook oder studiVZ sind beliebt bei den Surfern - und für Google unerreichbar. Doch ausgerechnet im Sammeln der dort preisgegebenen Daten sieht Google mittlerweile seine Existenzgrundlage. Der scheinbare Ausweg aus dem Dilemma heißt OpenSocial. Das ist eine Sammlung standardisierter Programmierschnittstellen (APIs) für webbasierte soziale Netzwerke. Mithilfe solcher APIs lassen sich Widgets programmieren - oder aber auch die in Datenbanken versteckten Nutzerprofile auslesen. Joe Kraus, bei Google verantwortlich für OpenSocial, nannte es einmal ganz unverhohlen "eine fantastische Monetarisierungsplattform". Auf Deutsch: ein Goldesel. Spürhund: Auf der verzweifelten Suche nach den Userdaten Fraglich ist allerdings, ob die Nutzer Google an ihre Daten lassen. Drei Viertel aller Surfer rebellieren ja bereits, wenn Google nur über die an sich relativ nutzlose IP-Adresse auf frühere Suchen der Personen schließt, fand der Autor Gerald Reischl für sein gerade erschienenes Buch "Die Google-Falle" heraus. Wie solch ein Protest praktisch aussieht, erfuhren die Betreiber des Studenten-Netzwerkes studiVZ Ende letzten Jahres: Reichlich unbedarft verkündeten sie ihren Nutzern, deren persönliche Daten zukünftig auch für Werbezwecke einzusetzen. Die Community machte das, was man eigentlich auch von ihr erwarten durfte: Sie organisierte sich gegen den befürchteten Ausverkauf und zwang studiVZ schließlich, den fraglichen Passus aus den Geschäftsbedingungen zu streichen. Selbst die Netzwerke, die OpenSocial unterstützen, halten nichts davon, dass sich Google über die Nutzerprofile hermacht, um seine Werbeeinnahmen zu steigern. Zumindest nicht die deutschen: "Es ist nicht in unserem Sinne, dass es bei der Nutzung von auf OpenSocial basierten Widgets zu einem Datenaustausch mit Google oder Dritten kommt", sagt Daniela Hinrichs, Pressesprecherin des Business-Netzwerkes Xing. "Das wäre aufgrund der strengenDatenschutzbestimmungen und unserer AGB überhaupt nicht zulässig - und es ist auch nicht gewollt.""
  16. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.01
    0.009991105 = product of:
      0.04995552 = sum of:
        0.028817665 = weight(_text_:buch in 4318) [ClassicSimilarity], result of:
          0.028817665 = score(doc=4318,freq=4.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.21793923 = fieldWeight in 4318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0153580215 = weight(_text_:und in 4318) [ClassicSimilarity], result of:
          0.0153580215 = score(doc=4318,freq=22.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.24364883 = fieldWeight in 4318, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0057798363 = product of:
          0.011559673 = sum of:
            0.011559673 = weight(_text_:22 in 4318) [ClassicSimilarity], result of:
              0.011559673 = score(doc=4318,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.116070345 = fieldWeight in 4318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4318)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
    Date
    3. 5.1997 8:44:22
  17. Schröder, C.: Textschnipsel des Weltwissens : Verlagen bereitet die Digitalisierung von Büchern Sorge, Forscher plädieren für die ungehinderte Verbreitung ihrer Werke im Internet (2006) 0.01
    0.009736368 = product of:
      0.04868184 = sum of:
        0.027169555 = weight(_text_:buch in 5113) [ClassicSimilarity], result of:
          0.027169555 = score(doc=5113,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.20547508 = fieldWeight in 5113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.013805835 = weight(_text_:und in 5113) [ClassicSimilarity], result of:
          0.013805835 = score(doc=5113,freq=10.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.219024 = fieldWeight in 5113, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.007706449 = product of:
          0.015412898 = sum of:
            0.015412898 = weight(_text_:22 in 5113) [ClassicSimilarity], result of:
              0.015412898 = score(doc=5113,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.15476047 = fieldWeight in 5113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5113)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "Wem gehört das Weltwissen? Der ganzen Welt natürlich, so würde man spontan antworten. Also müsste theoretisch das Wissen der Welt auch der ganzen Welt jederzeit zugänglich sein - sofern dies technisch denn möglich wäre. Im Rechtsstreit des InternetRiesen Google mit der Wissenschaftlichen Buchgesellschaft (WBG), die ihren Sitz in Darmstadt hat, trafen nun diverse Interessen- und Rechtslagen aufeinander. Dass die Buchgesellschaft ihre Klage zunächst zurückgezogen hat, heißt noch lange nicht, dass die Auseinandersetzung beendet wäre. Der Hintergrund: Seit 2004 baut die Internet-Suchmaschine ihr Portal "Google Print" (www.print.google.com) auf. Dort können digitalisierte Auszüge, zunächst aus englischsprachigen Büchern, kostenlos angeklickt und gelesen werden können. Google wirbt gar bei den Verlagen, die Bücher in das Projekt einzubinden, weil dies die denkbar beste Werbung sei. Umstritten ist jedoch vor allem die so genannte Opt-Out-Regelung, wonach ein Verlag explizit Widerspruch anmelden muss, wenn er mit einer Teilveröffentlichung seiner Werke nicht einverstanden ist. Anders gesagt: Google nimmt sich zunächst das Recht, Bücher, wenn auch nur auszugsweise, ohne Genehmigung des Urhebers online verfügbar zu machen. Mit Unterstützung des Börsenvereins des Deutschen Buchhandels wollte die WBG gerichtlich verhindern, dass auch Werke aus Deutschland eingescannt werden. Die Klage wurde nun zurückgezogen, weil das Hamburger Gericht erstens keine Urheberrechtsverletzung erkennen konnte und sich zudem für nicht zuständig erklärte, weil das Einscannen selbst in den USA vorgenommen wird. Hintergrund Urheberrechtsnovelle Die Furcht der Verlage dürfte nicht unbegründet sein, gerade vor dem Hintergrund, dass in Deutschland zur Zeit der Entwurf einer Urheberrechtsnovelle heftig diskutiert wird, wonach es Bibliotheken erlaubt werden soll, ihre Bestände in digitalisierter Form beliebig oft ihren Besuchern zur Verfügung zu stellen. Das könnte im Extremfall zur Folge haben, dass beispielsweise die Anschaffung eines einzigen Exemplars eines Titels ausreichend wäre, um eine ganze Universität damit zu versorgen. So weit ist es allerdings noch nicht. Und auch Google Print dürfte in seiner jetzigen Form für keinen Verlag zu einer Gefahr werden - zwei bis drei Textschnipsel pro Buch ersetzen noch nicht den Kauf. Doch die Tendenz ist klar, und die Klage der WBG sollte mit Sicherheit auch Signalcharakter haben; man überlegt dort, nun vor dem Bundesgerichtshof in Karlsruhe einen Musterprozess anzustrengen. Den Interessen der Verlage stehen hingegen die von Forschern, gerade aus dem naturwissenschaftlichen Bereich, entgegen, die für das Recht auf ungehinderte Verbreitung ihrer Arbeiten im Internet plädieren. Google jedenfalls, das steht fest, wird weiterhin Konzepte entwickeln, um das Wissen der Welt unter dem Label "Google Print" zu systematisieren."
    Date
    12. 2.1996 22:34:46
  18. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.01
    0.009520071 = product of:
      0.04760035 = sum of:
        0.023773361 = weight(_text_:buch in 5114) [ClassicSimilarity], result of:
          0.023773361 = score(doc=5114,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.17979069 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.017083848 = weight(_text_:und in 5114) [ClassicSimilarity], result of:
          0.017083848 = score(doc=5114,freq=20.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.27102837 = fieldWeight in 5114, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.0067431424 = product of:
          0.013486285 = sum of:
            0.013486285 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
              0.013486285 = score(doc=5114,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.1354154 = fieldWeight in 5114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5114)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46
  19. Schmidt, W.: ¬Die Erfolgreiche : Wie die Suchmaschine wurde, was sie ist (2006) 0.01
    0.009361721 = product of:
      0.0468086 = sum of:
        0.016980972 = weight(_text_:buch in 5938) [ClassicSimilarity], result of:
          0.016980972 = score(doc=5938,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.12842192 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.021485155 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.021485155 = score(doc=5938,freq=62.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.34085333 = fieldWeight in 5938, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.008342476 = product of:
          0.016684951 = sum of:
            0.016684951 = weight(_text_:22 in 5938) [ClassicSimilarity], result of:
              0.016684951 = score(doc=5938,freq=6.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.16753313 = fieldWeight in 5938, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "Wer Google googelt, sieht zuallererst Google. Das klingt wie ein plattes Witzchen - ist aber schon das wesentliche Geheimnis des unheimlichen Erfolgs einer Suchmaschine, der es gelungen ist, binnen weniger Jahre das Internet, die Suche nach Informationen und die Werbewelt zu verändern und sich unentbehrlich zu machen. Googeln wurde buchstäblich zum Begriff. "Keine andere Marke hat je so schnell globale Anerkennung gefunden wie Google", schreiben David A. Vise, ein Reporter der "Washington Post", und sein Kollege Mark Malseed in ihrem Buch über den sagenhaften Aufstieg des Unternehmens, das Suchergebnisse in 35 Sprachen liefert. Allein in Deutschland nutzen heute über 22 Millionen Menschen die Suchmaschine mit den bunten Buchstaben regelmäßig - unter den Internet-Surfern hierzulande ein Marktanteil von 65 Prozent. Sie suchen nach Neuigkeiten über ihre Filmhelden, prüfen die Schreibweise von Fremdwörtern oder forschen wie Detektive nach Wissenswertem über die Frau oder den Mann, mit dem sie sich abends treffen werden - zum Rendezvous oder Geschäftsessen. Längst gelten in manchen Kreisen Menschen als Langweiler, über die selbst Google nichts weiß. Wie dieser Erfolg möglich war, beschreiben Vise und Malseed auf rund 300 Seiten. Man kann es mit dem Dichter Victor Hugo (1802-1885) aber auch kürzer sagen: "Nichts ist so mächtig wie eine Idee, deren Zeit gekommen ist." Noch mächtiger freilich ist eine Idee, die von der Konkurrenz übernommen wird - in totaler Verkennung der Bedürfnisse von Internet-Nutzern. Eine solche Idee brachte 1997 Google hervor - und hat längst Wirtschafts- und Kulturgeschichte geschrieben. Der zentrale Gedanke der beiden damals 22-jährigen Google-Gründer Larry Page und Sergey Brin ist simpel: Wenn die Lawine der im Internet abrufbaren Informationen weiter derart anschwillt, dann brauchen die Nutzer des weltweiten Netzes einen exzellenten Suchhund. Nicht umsonst ist der Name der Suchmaschine abgeleitet von dem Wort Googol, womit in der Mathematik eine absurd große Zahl mit hundert Nullen bezeichnet wird - eine Anspielung auf die unermessliche und längst unüberschaubare Weite des Internets.
    Hilfe beim Finden tut also Not. Nur reicht es eben nicht, wenn ein Recherche-Programm für einen Begriff wie "Klimawandel" möglichst viele Fundstellen auflistet, durch die man sich dann erst einmal mühsam klicken und lesen muss. Das verbesserte Betriebsklima in der Firma XY ist für die meisten eher unwichtig. Page und Brin, Informatik-Studenten an der kalifornischen Universität Stanford, erkannten schnell, dass sie eine sinnvolle Rangfolge innerhalb der Suchergebnisse zustande bringen mussten, um Google zum Erfolg zu verhelfen Ihr erster Geldgeber Andy Bechtolsheim, der 1998 hilfreiche 100 000 Dollar beisteuerte, begründete seine Investition mit den Mängeln marktüblicher Suchmaschinen: "Damals benutzte ich das Internet fast ausschließlich für Suchanfragen, und ein Teil meiner Frustration rührte daher, dass AltaVista - die Standard-Suchmaschine - nicht sehr gut war." Viele der zahlreichen Ergebnisse waren unbrauchbar. Die 1995 in den USA ebenfalls gängige Suchmaschine Inktomi fand sich damals nicht einmal selber, wenn man ihren Namen in die Suchmaske eintippte. Google hingegen findet Relevantes meist zielsicher in Bruchteilen einer Sekunde - und sich selbst natürlich zuerst. Genial war auch die bis heute konsequent umgesetzte Idee, die Google-Startseite frei von Reklame und vor allem von Fotos und albernen Mätzchen zu halten. Derartiges verursacht nicht nur zusätzliche Ladezeit - gerade auf älteren Rechnern und bei langsamen Netz-Zugängen. Es wirkt auch unseriös und vermittelt den Eindruck, dass einem auf solchen Seiten vor allem etwas angedreht werden soll. Während die Konkurrenz ihre wichtigste Seite überluden, hielten Brin und Page an ihrem asketischen Portal fest. Dieses besteht bis heute praktisch nur aus dem Namen Google, kleinen Schaltflächen für die einzelnen Dienste und dem Suchfeld. Allenfalls werden zu besonderen Anlässen wie weltweit relevanten Jubiläen, Jahrestagen oder Sport-Ereignissen einzelne Buchstaben des Namenszuges meist witzig verändert.
    Im Rückblick klingt es unglaublich, dass viele Insider noch Ende der 90er Jahre sträflich das Potenzial einer zielführenden Suchmaschine unterschätzten - darunter auch die Verantwortlichen des großen Such-Dienstes AltaVista und des redaktionell betreuten Netzverzeichnisses Yahoo, das seine Kunden mit allerlei Diensten an sich zu binden suchte. Beide lehnten es früh ab, bei Google einzusteigen - später indes kooperierte Yahoo dann doch. "Niemand konnte sich für die Finanzierung von Suchanfragen begeistern", berichtet Buchautor David Wise. Getrieben von ihrer Idee, möglichst vielen Menschen möglichst alle Informationen des globalen Datennetzes zugänglich zu machen, wussten Brin und Page hingegen genau, dass sie auf dem richtigen Weg waren - und sie verfolgten ihn so unbeirrt wie Lenkraketen. Dabei behielten sie auch finanziell immer das Steuer in der Hand - keineswegs selbstverständlich gegen Ende der 90er Jahre, als die Internet-Euphorie und der Boom so genannter Dotcom-Unternehmen dazu führten, dass nahezu jedem großmäuligen Jung-Unternehmer Millionen Dollar, Pfund oder Mark an Risiko-Kapital in den Rachen gestopft wurden. Doch Brin und Page waren nicht nur standhaft und sparsam. Sie haben von Anfang an versucht, ihrer Belegschaft das Arbeiten bei Google möglichst angenehm zu machen, indem sie ihre Mitarbeiter so unentgeltlich wie exquisit verköstigten und ihr diverse Dienste bereitstellten - vom Kindergarten über Friseur und Wäscherei bis zum FitnessStudio. Obendrein erwarten sie bis heute, dass jeder Programmierer mindestens ein Fünftel seiner Arbeitszeit komplett darauf verwendet, eigenen Einfällen nachzuspüren und Neues auszuprobieren. Die so ermunterten Mitarbeiter haben nützliche Neuerungen hervorgebracht: von der - auf die USA beschränkten - Telefonnummern-Suche durch Eingabe von Namen und Postleitzahl ins Suchfeld über die automatische Korrektur von Eingabefehlern ("Meinten Sie:... ") bis hin zum Nachrichten-Service "Google News oder zum opulenten Foto-Archiv: Die Bildersuche hält heute rund 1,2 Milliarden Stück bereit. Auch Google Earth, das Satelliten-Aufnahmen auf den heimischen PC bringt, hat Aufsehen erregt.
    Eine zentrale Stütze des Erfolges ist die gewaltige Rechnerleistung, über die Google verfügt. Verteilt auf mehrere Standorte, durchforsten bei Suchanfragen weit über hunderttausend billige, aber bedarfsgerecht optimierte PC-Rechner über acht Milliarden gespeicherte Internet-Angebote. "Keine Gesellschaft verfügt über eine größere Rechnerleistung als Google mit seinem Netzwerk gewöhnlicher, aber aufgemotzter PCs", schreiben David Vise und Mark Malseed. Das Riesenheer aus Klein-Computern hält so viele Reserven vor, dass es nicht schlimm ist, wenn immer wieder einige davon den Geist aufgeben. Sie werden einfach umgangen, und andere Rechner übernehmen ihre Arbeit. Deshalb funktioniert Google seit Jahren praktisch reibungslos und stellt seine Nutzer zufrieden - ganz anders, als es die berüchtigten "schweren Ausnahmefehler" des Microsoft-Betriebssystems Windows immer wieder getan haben. Über sie ist selbst Microsoft-Gründer Bill Gates bei Präsentationen schon manches Mal gestolpert."
    Date
    3. 5.1997 8:44:22
  20. Lischka, K.: Falsche Fährten (2002) 0.01
    0.009098515 = product of:
      0.045492575 = sum of:
        0.016980972 = weight(_text_:buch in 863) [ClassicSimilarity], result of:
          0.016980972 = score(doc=863,freq=2.0), product of:
            0.13222799 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028439978 = queryNorm
            0.12842192 = fieldWeight in 863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=863)
        0.0180996 = weight(_text_:und in 863) [ClassicSimilarity], result of:
          0.0180996 = score(doc=863,freq=44.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.28714287 = fieldWeight in 863, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=863)
        0.010411999 = product of:
          0.020823998 = sum of:
            0.020823998 = weight(_text_:nutzung in 863) [ClassicSimilarity], result of:
              0.020823998 = score(doc=863,freq=2.0), product of:
                0.14642802 = queryWeight, product of:
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.028439978 = queryNorm
                0.14221321 = fieldWeight in 863, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=863)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    So wollte der CDU-Ortsverband Fuldatal wohl kaum bekannt werden: Die Nordhessen gerieten in die Schlagzeilen, weil sie mit falschen und fragwürdigen Schlüsselwör-tern Nutzer von Suchmaschinen auf ihre Webseiten locken wollten. Solche erschlichenen Einträge bei Google und Co. sind nur ein Grund, warum die Ergebnislisten selten objektiv ausfallen. Manche Einträge sind auch schlicht gekauft -und andere fehlen, weil sie gefiltert wurden.
    Content
    "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
    Nicht nur Betreiber der Suchseiten streben nach Gewinnen und nehmen zumindest missverständliche Ergebnisse in Kauf Auch Programmierer von Webseiten schummeln zu ihren eigenen Gunsten, etwa indem sie beim Anmelden ihrer Angebote falsche Katalogrubriken nennen - oder Suchmaschinen mit falschen Begriffen füttem. Genau das versuchte die CDU Fuldatal. In den für Surfer unsichtbaren HtmlMetatags trug sie gefragte Begriffe wie "Sex" ein, aber auch Termini wie "Führer" und Deportation". Die Schlagwörter wurden zwischenzeitlich gelöscht. Die Tricks mancher Webmaster gehen inzwischen darüber hinaus. So gibt das Magazin Internet Professionell Tipps wie diesen: "Man manipuliert die Suchmaschinen. mit Tricks wie begriffsoptimierten Cloaking-Pages und Domain-Namen oder speziellen Einträgen zur Steigerung der Link-Fbpularity." Das bedeutet: Seiten, die auf das Bewertungsschema bestimmter Suchmaschinen ausgerichtet sind, werden dem eigentlichen Angebot vorgeschaltet. Die Surfer bemerken davon wegen automatischer Weiterleitungen kaum etwas. So erhöht man die Zahl der auf das eigene Angebot verweisenden Seiten - ein wichtiges Gütekriterium beispielsweise fir den Algorithmus von Google. Wegen solcher Praktiken sah sich der Deutsche Multimedia Verband jüngst gezwungen, eine Empfehlung für korrektes Suchmaschinenmarketing abzugeben. Besonders kritisch werden solche Methoden, wenn sie von Pornographie-Anbietern eingesetzt werden. Wer etwa statt "Anna Kournikova den leicht falsch geschriebenen Namen "Anna Kournikoba" bei Google eintippt, bekommt dank der besonderen Form "der Suchmaschinenoptimierung nackte Haut vorgeschlagen. Friedemann Schiadler, Leiter von Jugendschutz.net, der Zentralstelle der Länder für Jugendschutz im Internet, sieht Handlungsbedarf: "Es ist ein Problem, wenn Kinder und Jugendliche bei einer Suche auf Seiten stoßen, nach denen sie nicht gesucht haben." Hier kommt - zumindest in - Deutschland - die dritte Partei bei der Veränderung von Ergebnislisten ins Spiel: der Staat. Jugendschutz.net hat in den vergangenen Wochen Aufsehen mit einer Initiative erregt, nach der Suchmaschinen ihre Listen jugendgefährdender und illegaler Adressen austauschen sollten Kritiker sehen eine staatliche Vorzensur. Doch soweit kommt es wohl nicht. Schiadler räumt ein, Jugendschutz.net hat keine hoheitlichen Rechte, um Suchmaschinen zu Austausch und Nutzung der Liste zu verpflichten. Bedenklich ist der Vorschlag dennoch. Das Gesetz nennt eindeutig, was auch für Erwachsene unzulässig ist: Tier- und Kinderpornografie, Volksverhetzung und Verletzungen der Menschenwürde. Die Suchmaschinenbetreiber aber bestimmen unzulässige Inhalte auf Grund eigener Kriterien, die teils über das Gesetz hinausgehen. Wie Friedemann Schiadler sagt: "Für viele Betreiber von Suchdiensten verstoßen Darstellungen von Kindern in sexuell aufreizenden Posen gegen die eigene Policy, obwohl sie gesetzlich zulässig sind." Solche Sperren über eine gemeinsame Liste zu zentralisieren, sieht Wolfgang Schulz, Leiter des Hans-Bredow-Instituts für Medienforschung, nur eingeschränkt positiv: ".Strukturell ist der Ansatz zu begrüßen, da er die Suchmaschinenanbieter zur Selbstverantwortung anhält. Allerdings ist es im Hinblick auf die Kommunikationsfreiheit erwachsener Nutzer bedenklich, wenn bestimmte Inhalte sus dem Netz unmerklich verschwinden." Schiadler hingegen sagt, es gebe keinen Anspruch darauf, in einem Suchdienst gelistet zu sein: "Es bleibt den Betreibern vorbehalten, die Auswahl zu treffen." Bei allem Streit, wichtig ist: Die Nutzer sollten die Kriterien der Eingriffe kennen - ganz gleich ob sie der Werbung oder dem Jugendschutz dienen.

Languages

  • d 285
  • e 43