Search (589 results, page 1 of 30)

  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.04
    0.04242715 = product of:
      0.1442523 = sum of:
        0.025095893 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.025095893 = score(doc=284,freq=14.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.019184766 = product of:
          0.038369533 = sum of:
            0.038369533 = weight(_text_:bibliothekswesen in 284) [ClassicSimilarity], result of:
              0.038369533 = score(doc=284,freq=2.0), product of:
                0.11129492 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024967048 = queryNorm
                0.34475547 = fieldWeight in 284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=284)
          0.5 = coord(1/2)
        0.055413805 = weight(_text_:informationswissenschaft in 284) [ClassicSimilarity], result of:
          0.055413805 = score(doc=284,freq=4.0), product of:
            0.11246919 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024967048 = queryNorm
            0.4927021 = fieldWeight in 284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.038369533 = weight(_text_:bibliothekswesen in 284) [ClassicSimilarity], result of:
          0.038369533 = score(doc=284,freq=2.0), product of:
            0.11129492 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024967048 = queryNorm
            0.34475547 = fieldWeight in 284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.006188299 = weight(_text_:in in 284) [ClassicSimilarity], result of:
          0.006188299 = score(doc=284,freq=6.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.1822149 = fieldWeight in 284, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.29411766 = coord(5/17)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
  2. Lewandowski, D.: Suchmaschinen als Konkurrenten der Bibliothekskataloge : Wie Bibliotheken ihre Angebote durch Suchmaschinentechnologie attraktiver und durch Öffnung für die allgemeinen Suchmaschinen populärer machen können (2006) 0.03
    0.03267284 = product of:
      0.11108765 = sum of:
        0.018970713 = weight(_text_:und in 3449) [ClassicSimilarity], result of:
          0.018970713 = score(doc=3449,freq=8.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.34282678 = fieldWeight in 3449, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
        0.019184766 = product of:
          0.038369533 = sum of:
            0.038369533 = weight(_text_:bibliothekswesen in 3449) [ClassicSimilarity], result of:
              0.038369533 = score(doc=3449,freq=2.0), product of:
                0.11129492 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024967048 = queryNorm
                0.34475547 = fieldWeight in 3449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3449)
          0.5 = coord(1/2)
        0.038369533 = weight(_text_:bibliothekswesen in 3449) [ClassicSimilarity], result of:
          0.038369533 = score(doc=3449,freq=2.0), product of:
            0.11129492 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024967048 = queryNorm
            0.34475547 = fieldWeight in 3449, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
        0.0071456316 = weight(_text_:in in 3449) [ClassicSimilarity], result of:
          0.0071456316 = score(doc=3449,freq=8.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.21040362 = fieldWeight in 3449, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
        0.027417 = weight(_text_:bibliotheken in 3449) [ClassicSimilarity], result of:
          0.027417 = score(doc=3449,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.29142573 = fieldWeight in 3449, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
      0.29411766 = coord(5/17)
    
    Abstract
    Die elektronischen Bibliotheksangebote konkurrieren zunehmend mit den allgemeinen Websuchmaschinen und spezialisierten Wissenschaftssuchmaschinen um die Gunst der Nutzer. Dieser Aufsatz gibt einen kritischen Überblick über die bisherigen Initiativen zum Einsatz von Suchmaschinentechnologie im Bibliothekskontext sowie zur Sichtbarmachung von Bibliotheksinhalten in allgemeinen Suchmaschinen. Darauf aufbauend wird dargestellt, wie Bibliotheksangebote tatsächlich für den Nutzer attraktiver werden können und ihre Sichtbarkeit in Suchmaschinen erhöht werden kann. Grundlegend muss der OPAC zum zentralen Nachweisinstrument für alle in der jeweiligen Bibliothek verfügbaren Informationen gemacht werden. Außerdem müssen die Katalogdaten deutlich angereichert werden, um die Stärken der Suchmaschinentechnologie auch tatsächlich nutzen zu können. Auf der Basis dieser erweiterten Textmenge kann schließlich auch leicht die Auffindbarkeit in allgemeinen Suchmaschinen verbessert werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 53(2006) H.2, S.71-78
  3. Siegenheim, V.; Kaumanns, R.: ¬Die Google-Ökonomie : Wie Google die Wirtschaft verändert (2007) 0.03
    0.025399387 = product of:
      0.107947394 = sum of:
        0.063494034 = weight(_text_:allgemeines in 2414) [ClassicSimilarity], result of:
          0.063494034 = score(doc=2414,freq=4.0), product of:
            0.14244758 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024967048 = queryNorm
            0.44573617 = fieldWeight in 2414, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2414)
        0.019163312 = weight(_text_:und in 2414) [ClassicSimilarity], result of:
          0.019163312 = score(doc=2414,freq=16.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.34630734 = fieldWeight in 2414, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2414)
        0.005706471 = weight(_text_:in in 2414) [ClassicSimilarity], result of:
          0.005706471 = score(doc=2414,freq=10.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.16802745 = fieldWeight in 2414, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2414)
        0.019583572 = weight(_text_:bibliotheken in 2414) [ClassicSimilarity], result of:
          0.019583572 = score(doc=2414,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.20816123 = fieldWeight in 2414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2414)
      0.23529412 = coord(4/17)
    
    Abstract
    Kaum ein Unternehmen hat in den letzten Jahren eine so rasante Erfolgsgeschichte geschrieben wie Google. Vor rund zehn Jahren als Internet-Suchmaschine mit einer Handvoll Mitarbeiter gestartet, hat sich Google zu einem erfolgreichen Konzern mit über 10.000 Mitarbeitern und Milliarden-Umsätzen entwickelt. Google hat sich dabei fundamental verändert. Google ist mittlerweile mehr als eine Suchmaschine. Google ist ein Nachrichtendienst. Google ist ein Multimedia-Archiv. Google ist ein Bezahlsystem. Google ist ein geographisches Informationssystem. Google ist ein Werbevermarkter. Google ist ein Software-Anbieter. Google ist vielleicht bald auch eine Telefongesellschaft ... und vieles mehr! Google investiert Milliarden in den Ausbau seiner Suchtechnologie und die Expansion seines Werbenetzwerks in die klassischen Werbeträger (TV, Radio oder Print). Google arbeitet an vollkommen neuen Angeboten wie der Verfügbarkeit von Wissen in Form der Digitalisierung gigantischer Bibliotheken. Google stößt in neue Segmente wie den mobile Plattformen, Geoinformation oder Anwendungen zur Bürokommunikation vor und engagiert sich beim Aufbau neuer Kommunikationsnetze oder entwickelt Dienste, die unser (digitales) Leben nachhaltig verändern könnten. Wie passt dies alles zusammen? Betrachtet man die einzelnen Aktivitäten von Google näher, ergibt sich ein spannendes Gesamtbild mit der Frage, welche Ziele und Strategie Google verfolgt. Dieses Gesamtbild - unter dem Schlagwort Google-Ökonomie - wird analysiert und die möglichen Auswirkungen auf verschiedene Branchen bewertet.
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
  4. Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.02
    0.023806857 = product of:
      0.101179145 = sum of:
        0.050795227 = weight(_text_:allgemeines in 2858) [ClassicSimilarity], result of:
          0.050795227 = score(doc=2858,freq=4.0), product of:
            0.14244758 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024967048 = queryNorm
            0.35658893 = fieldWeight in 2858, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.023851763 = weight(_text_:buch in 2858) [ClassicSimilarity], result of:
          0.023851763 = score(doc=2858,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.20547508 = fieldWeight in 2858, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.022995977 = weight(_text_:und in 2858) [ClassicSimilarity], result of:
          0.022995977 = score(doc=2858,freq=36.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.41556883 = fieldWeight in 2858, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.0035361708 = weight(_text_:in in 2858) [ClassicSimilarity], result of:
          0.0035361708 = score(doc=2858,freq=6.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.1041228 = fieldWeight in 2858, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
      0.23529412 = coord(4/17)
    
    Abstract
    Suchmaschinen sind die neuen »Gatekeeper« im Internet. Sie kanalisieren unsere Aufmerksamkeit und haben entscheidenden Einfluss darauf, welche Inhalte wie zugänglich sind. Ohne sie sind Informationen im Netz nur schwer auffindbar. Allerdings: Nur wenige Nutzer wissen, wie man Suchmaschinen optimal bedient und wie sie funktionieren. Sie sind anfällig für Manipulationen (»Spamming«) und verschaffen auch ungewollt Zugang zu illegalen und jugendgefährdenden Inhalten. Wie können Suchmaschinen trotzdem ihrer Verantwortung als zentrale Informationssortierer gerecht werden? Eine groß angelegte Untersuchung der Bertelsmann Stiftung stellt diese Beobachtungen auf eine wissenschaftliche Basis. Eine Nutzerbefragung, ein Laborexperiment und ein Leistungsvergleich geben Aufschluss über Image, Bedienerfreundlichkeit und Qualität von Suchmaschinen. Aus dieser Analyse entwickeln die Autoren einen Code of Conduct für Suchmaschinenbetreiber, der einen möglichst objektiven und transparenten Zugang zu Informationen im Netz garantieren soll. Das Buch ist dreigeteilt: Im ersten umfangreichen Teil (bis Seite 490) werden, nach einer Einführung in die Suchmaschinenproblematik und ihr Umfeld, Qualität und Nutzung erforscht: Nach der Marktanalyse der deutschsprachigen Suchdienste werden ausgewählte einem Leistungsvergleich unterzogen. Der Gefährdung von Kindern und Jugendlichen widmet sich das Kapitel Problemanalyse. Wie erfolgreich Spamversuche die Suchergebnisse beeinflussen können, wird anschließend dargestellt. Den Kenntnissen und Einstellungen von Nutzern von Suchdiensten widmet sich ein ausführliches Kapitel. Nutzungshäufigkeit, Suchprozesse und Vorgehensweisen sind detailliert untersucht worden. Die Ergebnisse der Laborexperimente liefern konkrete Einsichten, auf über 100 Seiten verständlich beschrieben. In Kapitel 6 werden die angewandten Methoden ausführlich erläutert. Das angefügte Glossar könnte ausführlicher sein. Der zweite Teil appelliert an die gesellschaftliche Verantwortung der deutschen Suchdienstbetreiber, indem ein Code of Conduct für Suchmaschinen entworfen wird. Im dritten Teil wird auf die Entwicklungen in der Suchmaschinenlandschaft eingegangen, die sich durch Firmenübernahmen und die Monopolstellung von Google ergeben haben.
    Classification
    AP 18450 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Telekommunikation, Bildschirmtext
    Content
    Enthält die Beiträge: Vorwort (Miriam Meckel) Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen (Marcel Machill, Christoph Neuberger, Wolfgang Schweiger, Werner Wirth) Ein Code of Conduct für Suchmaschinen (Carsten Welp) Die Suchmaschinenlandschaft 2003: Wirtschaftliche und technische Entwicklungen (Stefan Karzauninkat)
    RVK
    AP 18450 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Telekommunikation, Bildschirmtext
  5. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.02
    0.02178197 = product of:
      0.0740587 = sum of:
        0.019067256 = weight(_text_:und in 52) [ClassicSimilarity], result of:
          0.019067256 = score(doc=52,freq=44.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.34457147 = fieldWeight in 52, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.008222043 = product of:
          0.016444085 = sum of:
            0.016444085 = weight(_text_:bibliothekswesen in 52) [ClassicSimilarity], result of:
              0.016444085 = score(doc=52,freq=2.0), product of:
                0.11129492 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024967048 = queryNorm
                0.14775234 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.5 = coord(1/2)
        0.016444085 = weight(_text_:bibliothekswesen in 52) [ClassicSimilarity], result of:
          0.016444085 = score(doc=52,freq=2.0), product of:
            0.11129492 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024967048 = queryNorm
            0.14775234 = fieldWeight in 52, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.0040511927 = weight(_text_:in in 52) [ClassicSimilarity], result of:
          0.0040511927 = score(doc=52,freq=14.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.119287655 = fieldWeight in 52, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.02627412 = weight(_text_:bibliotheken in 52) [ClassicSimilarity], result of:
          0.02627412 = score(doc=52,freq=10.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.27927762 = fieldWeight in 52, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
      0.29411766 = coord(5/17)
    
    Content
    "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
    Eine Realisation ähnlicher Konzepte findet sich zum Beispiel auch in der Bibliothekswelt: Einzelne Opacsysteme werden mit anderen zu einem Verbund koordiniert, der seinerseits eine Möglichkeit anbietet, die angeschlossenen Systeme zu durchsuchen (zwar technisch keine echte Metasuche, aber durchaus vergleichbar, da verschiedene Einzelsysteme unter einer einheitlichen Oberfläche angeboten werden). Übergeordnet gibt es weitere, verbundübergreifende Suchmöglichkeiten wie das P7+-Verbundportal. Der Katalog der DNB kommt dazu und umfasst sämtliche deutschsprachige Literatur (was als Redundanz zu den anderen Einzelopacs gesehen werden kann). Als echtes Metasuchsystem gibt es in Bibliothekskreisen den KVK, der wiederum seinerseits den Katalog der DNB, die einzelnen Verbundkataloge, aber auch nochmal die Einzelsysteme diverser Bibliotheken zusammenfasst. Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KoBV) geht sogar einen Schritt weiter und setzt komplett auf verteilte Datenhaltung, indem er z.B. einen dezentralen Verbundkatalog betreibt. Die heterogenen Einzelsysteme der Bibliotheken werden über eine zentrale Suchmaschine miteinanderverbunden. So erkennt man bei diesem Beispiel ganz deutliche Parallelen zu den Überlegungen des SuMa-eV. ...
    Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.35-40
  6. Rogers, R.: Zur Frage der Vergoogelung : Hin zu einer unkritisierbaren Maschine? (2009) 0.02
    0.021594118 = product of:
      0.091775 = sum of:
        0.041740585 = weight(_text_:buch in 27) [ClassicSimilarity], result of:
          0.041740585 = score(doc=27,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.35958138 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0546875 = fieldNorm(doc=27)
        0.016429119 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.016429119 = score(doc=27,freq=6.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.2968967 = fieldWeight in 27, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=27)
        0.006188299 = weight(_text_:in in 27) [ClassicSimilarity], result of:
          0.006188299 = score(doc=27,freq=6.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.1822149 = fieldWeight in 27, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=27)
        0.027417 = weight(_text_:bibliotheken in 27) [ClassicSimilarity], result of:
          0.027417 = score(doc=27,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.29142573 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0546875 = fieldNorm(doc=27)
      0.23529412 = coord(4/17)
    
    Abstract
    Die Illustration Googles von Jude Buffum kann als stenografischer Hinweis auf die "Vergoogelung" gelesen werden, ein Terminus, der 2003 eingeführt wurde, um das Einsickern der Suchtechnologien und Ästhetik dieses Medienunternehmens in immer mehr Web-Applikationen und Kontexte, sogar in traditionsreiche Einrichtungen wie Bibliotheken zu bezeichnen. Der Medienwissenschaftler Siva Vaidhyanathan schreibt in einem Blog-Eintrag über sein Buch The Googlization of Everything, dass Google die "Spielregeln für mindestens sechs Wirtschaftsbranchen geändert hat: Werbung, Software, geographische Dienste, E-Mail, das Verlagswesen und den Online-Handel selbst".
  7. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.02
    0.021084351 = product of:
      0.07168679 = sum of:
        0.029515052 = weight(_text_:buch in 1333) [ClassicSimilarity], result of:
          0.029515052 = score(doc=1333,freq=4.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.25426245 = fieldWeight in 1333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.018970713 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.018970713 = score(doc=1333,freq=32.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.0035728158 = weight(_text_:in in 1333) [ClassicSimilarity], result of:
          0.0035728158 = score(doc=1333,freq=8.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.10520181 = fieldWeight in 1333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.0137085 = weight(_text_:bibliotheken in 1333) [ClassicSimilarity], result of:
          0.0137085 = score(doc=1333,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.14571287 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.005919708 = product of:
          0.011839416 = sum of:
            0.011839416 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.011839416 = score(doc=1333,freq=2.0), product of:
                0.08743035 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024967048 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
  8. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.02
    0.020741299 = product of:
      0.070520416 = sum of:
        0.025298614 = weight(_text_:buch in 4318) [ClassicSimilarity], result of:
          0.025298614 = score(doc=4318,freq=4.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.21793923 = fieldWeight in 4318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0134825865 = weight(_text_:und in 4318) [ClassicSimilarity], result of:
          0.0134825865 = score(doc=4318,freq=22.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.24364883 = fieldWeight in 4318, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0063133272 = weight(_text_:in in 4318) [ClassicSimilarity], result of:
          0.0063133272 = score(doc=4318,freq=34.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.18589637 = fieldWeight in 4318, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.020351846 = weight(_text_:bibliotheken in 4318) [ClassicSimilarity], result of:
          0.020351846 = score(doc=4318,freq=6.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.21632752 = fieldWeight in 4318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0050740354 = product of:
          0.010148071 = sum of:
            0.010148071 = weight(_text_:22 in 4318) [ClassicSimilarity], result of:
              0.010148071 = score(doc=4318,freq=2.0), product of:
                0.08743035 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024967048 = queryNorm
                0.116070345 = fieldWeight in 4318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4318)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
    Date
    3. 5.1997 8:44:22
  9. Schröder, C.: Textschnipsel des Weltwissens : Verlagen bereitet die Digitalisierung von Büchern Sorge, Forscher plädieren für die ungehinderte Verbreitung ihrer Werke im Internet (2006) 0.02
    0.018766334 = product of:
      0.063805535 = sum of:
        0.023851763 = weight(_text_:buch in 5113) [ClassicSimilarity], result of:
          0.023851763 = score(doc=5113,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.20547508 = fieldWeight in 5113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.012119943 = weight(_text_:und in 5113) [ClassicSimilarity], result of:
          0.012119943 = score(doc=5113,freq=10.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.219024 = fieldWeight in 5113, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.0054015904 = weight(_text_:in in 5113) [ClassicSimilarity], result of:
          0.0054015904 = score(doc=5113,freq=14.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.15905021 = fieldWeight in 5113, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.015666857 = weight(_text_:bibliotheken in 5113) [ClassicSimilarity], result of:
          0.015666857 = score(doc=5113,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.16652898 = fieldWeight in 5113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.006765381 = product of:
          0.013530762 = sum of:
            0.013530762 = weight(_text_:22 in 5113) [ClassicSimilarity], result of:
              0.013530762 = score(doc=5113,freq=2.0), product of:
                0.08743035 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024967048 = queryNorm
                0.15476047 = fieldWeight in 5113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5113)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Content
    "Wem gehört das Weltwissen? Der ganzen Welt natürlich, so würde man spontan antworten. Also müsste theoretisch das Wissen der Welt auch der ganzen Welt jederzeit zugänglich sein - sofern dies technisch denn möglich wäre. Im Rechtsstreit des InternetRiesen Google mit der Wissenschaftlichen Buchgesellschaft (WBG), die ihren Sitz in Darmstadt hat, trafen nun diverse Interessen- und Rechtslagen aufeinander. Dass die Buchgesellschaft ihre Klage zunächst zurückgezogen hat, heißt noch lange nicht, dass die Auseinandersetzung beendet wäre. Der Hintergrund: Seit 2004 baut die Internet-Suchmaschine ihr Portal "Google Print" (www.print.google.com) auf. Dort können digitalisierte Auszüge, zunächst aus englischsprachigen Büchern, kostenlos angeklickt und gelesen werden können. Google wirbt gar bei den Verlagen, die Bücher in das Projekt einzubinden, weil dies die denkbar beste Werbung sei. Umstritten ist jedoch vor allem die so genannte Opt-Out-Regelung, wonach ein Verlag explizit Widerspruch anmelden muss, wenn er mit einer Teilveröffentlichung seiner Werke nicht einverstanden ist. Anders gesagt: Google nimmt sich zunächst das Recht, Bücher, wenn auch nur auszugsweise, ohne Genehmigung des Urhebers online verfügbar zu machen. Mit Unterstützung des Börsenvereins des Deutschen Buchhandels wollte die WBG gerichtlich verhindern, dass auch Werke aus Deutschland eingescannt werden. Die Klage wurde nun zurückgezogen, weil das Hamburger Gericht erstens keine Urheberrechtsverletzung erkennen konnte und sich zudem für nicht zuständig erklärte, weil das Einscannen selbst in den USA vorgenommen wird. Hintergrund Urheberrechtsnovelle Die Furcht der Verlage dürfte nicht unbegründet sein, gerade vor dem Hintergrund, dass in Deutschland zur Zeit der Entwurf einer Urheberrechtsnovelle heftig diskutiert wird, wonach es Bibliotheken erlaubt werden soll, ihre Bestände in digitalisierter Form beliebig oft ihren Besuchern zur Verfügung zu stellen. Das könnte im Extremfall zur Folge haben, dass beispielsweise die Anschaffung eines einzigen Exemplars eines Titels ausreichend wäre, um eine ganze Universität damit zu versorgen. So weit ist es allerdings noch nicht. Und auch Google Print dürfte in seiner jetzigen Form für keinen Verlag zu einer Gefahr werden - zwei bis drei Textschnipsel pro Buch ersetzen noch nicht den Kauf. Doch die Tendenz ist klar, und die Klage der WBG sollte mit Sicherheit auch Signalcharakter haben; man überlegt dort, nun vor dem Bundesgerichtshof in Karlsruhe einen Musterprozess anzustrengen. Den Interessen der Verlage stehen hingegen die von Forschern, gerade aus dem naturwissenschaftlichen Bereich, entgegen, die für das Recht auf ungehinderte Verbreitung ihrer Arbeiten im Internet plädieren. Google jedenfalls, das steht fest, wird weiterhin Konzepte entwickeln, um das Wissen der Welt unter dem Label "Google Print" zu systematisieren."
    Date
    12. 2.1996 22:34:46
  10. Google digitalisiert 15 Millionen Bücher (2005) 0.02
    0.018439166 = product of:
      0.07836646 = sum of:
        0.029814703 = weight(_text_:buch in 3775) [ClassicSimilarity], result of:
          0.029814703 = score(doc=3775,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.25684384 = fieldWeight in 3775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
        0.015149929 = weight(_text_:und in 3775) [ClassicSimilarity], result of:
          0.015149929 = score(doc=3775,freq=10.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.27378 = fieldWeight in 3775, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
        0.005706471 = weight(_text_:in in 3775) [ClassicSimilarity], result of:
          0.005706471 = score(doc=3775,freq=10.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.16802745 = fieldWeight in 3775, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
        0.027695354 = weight(_text_:bibliotheken in 3775) [ClassicSimilarity], result of:
          0.027695354 = score(doc=3775,freq=4.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.29438445 = fieldWeight in 3775, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
      0.23529412 = coord(4/17)
    
    Content
    "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
  11. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.02
    0.017808499 = product of:
      0.060548894 = sum of:
        0.020870293 = weight(_text_:buch in 5114) [ClassicSimilarity], result of:
          0.020870293 = score(doc=5114,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.17979069 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.014997665 = weight(_text_:und in 5114) [ClassicSimilarity], result of:
          0.014997665 = score(doc=5114,freq=20.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.27102837 = fieldWeight in 5114, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.005052725 = weight(_text_:in in 5114) [ClassicSimilarity], result of:
          0.005052725 = score(doc=5114,freq=16.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.14877784 = fieldWeight in 5114, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.0137085 = weight(_text_:bibliotheken in 5114) [ClassicSimilarity], result of:
          0.0137085 = score(doc=5114,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.14571287 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.005919708 = product of:
          0.011839416 = sum of:
            0.011839416 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
              0.011839416 = score(doc=5114,freq=2.0), product of:
                0.08743035 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024967048 = queryNorm
                0.1354154 = fieldWeight in 5114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5114)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46
  12. Alby, T.; Karzauninkat, S.: Suchmaschinenoptimierung : professionelles Website-Marketing für besseres Ranking ; [berücksichtigt Google Analytics] (2007) 0.02
    0.01735238 = product of:
      0.098330155 = sum of:
        0.03591765 = weight(_text_:allgemeines in 35) [ClassicSimilarity], result of:
          0.03591765 = score(doc=35,freq=2.0), product of:
            0.14244758 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024967048 = queryNorm
            0.25214645 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.033731487 = weight(_text_:buch in 35) [ClassicSimilarity], result of:
          0.033731487 = score(doc=35,freq=4.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.29058564 = fieldWeight in 35, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.02868102 = weight(_text_:und in 35) [ClassicSimilarity], result of:
          0.02868102 = score(doc=35,freq=56.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.51830536 = fieldWeight in 35, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
      0.1764706 = coord(3/17)
    
    Abstract
    Mit Suchmaschinenoptimierung. Professionelles Website-Marketing für besseres Ranking liefern Stefan Karzauninkat und Tom Alby einen sauberen Überblick über Grundlagen, Gründe, Maßnahmen und Zielsetzungen von suchmaschinenoptierten Websites. Essentielles Internet-Wissen auf dem aktuellen Stand. Karzauninkat und Alby widmen ihr Buch Entscheidern, Konzeptionern, Designern und Webmastern, die ihre Website, ob neu oder alt, im Gesamtzusammenhang des Internet sehen und verstehen wollen. Suchmaschinen sind und waren dabei schon immer ein wesentlicher Faktor, denn sie sind die Instanz, die eine Website und deren Informationen findet, wenn sie gesucht wird. Die Sucharbeit der Maschinen kann man ignorieren, behindern oder unterstützen -- wenn man weiß wie. Karzauninkat und Alby haben ihr Wissen praktisch erworben. Vor allem Karzauninkat kann zahlreiche Internetprojekt vorweisen, zu denen auch die bekannte und viel besuchte Suchmaschinen-Website www.suchfibel.de gehört. Ziel der beiden Autoren ist es, ein allgemeines Verständnis für die Such- und Gefundenwelt des Internet und dauerhafte und anhaltende Maßnahmen für die gefunden-werden-Bilanz sowie die Platzierung innerhalb der Liste der gefundenen Suchergebnisse zu vermitteln. Überzeugen, erklären und zeigen lautet die Devise: Am Anfang steht eine Einführung mit dem Titel "Wozu das Ganze". Argumentationsstoff und Fakten für den folgenden Aufwand. Darauf folgt die Website-Optimierung als Teil der Unternehmenskommunikation und dieses Kapitel zeigt auch einen Fokus der beiden: Verkaufen. Nun gut, welcher Zweck auch immer, die Mittel sind immer die gleichen. Als nächstes stellen sie Suchmaschinen und ihre Funktionsweise vor, bevor sie sich dann dem Kern ihres Buches widmen: die Optimierung zur Positionsverbesserung. Hier entschlüsseln sie die Bedeutung von Inhalt, erklären kurz die technischen Belange und zeigen wo es Probleme und Widerstände geben kann. Auch professionelle Dienstleister für die Website-Optimierung nehmen sie unter die Lupe. Zuletzt dann Suchmaschinenmarketing, laufende Maßnahmen zur Erfolgskontrolle und dann noch sechs kurze Fallbeispiele. Ebenso bieten sie ein Glossar und einen Anhang mit Server-Response-Codes, Agents und Meta-Tags sowie weiterführende Literatur und Weblinks. Übrigens steht den Druck-Käufern das gesamte Buch auch als eBook zur Verfügung! Suchmaschinenoptimierung ist ein guter, locker geschriebener und leicht zu lesender, vor allem aktueller Überblick mit einem Gespür für die Fragen und Bedürfnisse der Zielgruppe von Entscheider bis Webmaster. Wer Suchmaschinen-Verständnis ohne technische Überlastung sucht, liest hier zufrieden.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
  13. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.02
    0.017246326 = product of:
      0.058637507 = sum of:
        0.014907352 = weight(_text_:buch in 1721) [ClassicSimilarity], result of:
          0.014907352 = score(doc=1721,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.12842192 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.015524058 = weight(_text_:und in 1721) [ClassicSimilarity], result of:
          0.015524058 = score(doc=1721,freq=42.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.280541 = fieldWeight in 1721, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.013994099 = weight(_text_:informationswissenschaft in 1721) [ClassicSimilarity], result of:
          0.013994099 = score(doc=1721,freq=2.0), product of:
            0.11246919 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024967048 = queryNorm
            0.12442607 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.004420214 = weight(_text_:in in 1721) [ClassicSimilarity], result of:
          0.004420214 = score(doc=1721,freq=24.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.1301535 = fieldWeight in 1721, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.009791786 = weight(_text_:bibliotheken in 1721) [ClassicSimilarity], result of:
          0.009791786 = score(doc=1721,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.10408062 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.29411766 = coord(5/17)
    
    Abstract
    Unendlich weit. Über Jahrzehnte wuchs das Internet zum Wissenskosmos. Neue Suchstrategien erschließen Nutzern die verborgenen Informationen. Mit Bezugnahme auf das Invisible Web (Grafik) und Stellungnahmen von W.G. Stock (Bild), W. Sander-Beuermann (MetaGer) (Bild) u. M. Henzinger (google.de) (Bild)
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  14. Wolff, C.: Effektivität von Recherchen im WWW : Vergleichende Evaluierung von such- und Metasuchmaschinen (2000) 0.02
    0.01540503 = product of:
      0.08729517 = sum of:
        0.02682864 = weight(_text_:und in 5463) [ClassicSimilarity], result of:
          0.02682864 = score(doc=5463,freq=16.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.4848303 = fieldWeight in 5463, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
        0.055413805 = weight(_text_:informationswissenschaft in 5463) [ClassicSimilarity], result of:
          0.055413805 = score(doc=5463,freq=4.0), product of:
            0.11246919 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024967048 = queryNorm
            0.4927021 = fieldWeight in 5463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
        0.005052725 = weight(_text_:in in 5463) [ClassicSimilarity], result of:
          0.005052725 = score(doc=5463,freq=4.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.14877784 = fieldWeight in 5463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
      0.1764706 = coord(3/17)
    
    Abstract
    Der vorliegende Beitrag befasst sich mit der Informationssuche im World Wide Web und ihrer Evaluierung. Ausgehend von einer Zusammenschau der wesentlichen Merkmale des World Wide Web als heterogener Dokumentkollektion (Kap. 1) werden Aufbau und Merkmale von Suchmaschinen und Metasuchmaschinen eingeführt sowie die Problematik der Evaluierung von Suchmaschinen und eine Übersicht bisheriger Ergebnisse diskutiert (Kap. 2). In Kap. 3 werden Aufbau, Durchführung und Ergebnisse einer Vergleichstudie vorgestellt, bei der mit Hilfe eines paper-and-pencil-Experiments ausgewählte Such- und Metasuchmaschinen evaluiert wurden. Schließlich zieht Kap. 4 Schlussfolgerungen aus dieser Studie und gibt einen Ausblick auf Optimierungsmöglichkeiten für Suchmaschinen
    Series
    Schriften zur Informationswissenschaft; Bd.38
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  15. Brochhagen, T.; Wimmeroth, U.: Google dirty tricks (2003) 0.02
    0.015331208 = product of:
      0.08687684 = sum of:
        0.06746297 = weight(_text_:buch in 1861) [ClassicSimilarity], result of:
          0.06746297 = score(doc=1861,freq=4.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.5811713 = fieldWeight in 1861, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0625 = fieldNorm(doc=1861)
        0.015330651 = weight(_text_:und in 1861) [ClassicSimilarity], result of:
          0.015330651 = score(doc=1861,freq=4.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.27704588 = fieldWeight in 1861, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1861)
        0.004083218 = weight(_text_:in in 1861) [ClassicSimilarity], result of:
          0.004083218 = score(doc=1861,freq=2.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.120230645 = fieldWeight in 1861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1861)
      0.1764706 = coord(3/17)
    
    Abstract
    Wer im Alltag oft mit Google recherchiert, findet in diesem Buch allgemein verständlich beschriebene Tipps und Tricks für die Praxis. Von detaillierten Tipps zu präzisen Suchanfragen reicht bis zur Platzierung der eigenen Webpräsenz im Google-Ranking werden alle Themen ausführlich mit Beispielen unterlegt. Das Buch ist auch gut für Leser geeignet, die bislang wenig Erfahrungen mit Webrecherchen gesammelt haben. Beispielsweise werden grundlegende Verfahren wie Googles Page-Ranking erklärt. "Google Dirty Tricks" ist ein gelungenes Kompendium für Probleme und Lösungen rund um Google
  16. Sander-Beuermann, W.: Förderpreis Suchmaschinen : SuMa Awards 2008 (2007) 0.01
    0.014930839 = product of:
      0.063456066 = sum of:
        0.017925637 = weight(_text_:und in 6025) [ClassicSimilarity], result of:
          0.017925637 = score(doc=6025,freq=14.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.32394084 = fieldWeight in 6025, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6025)
        0.013703404 = product of:
          0.027406808 = sum of:
            0.027406808 = weight(_text_:bibliothekswesen in 6025) [ClassicSimilarity], result of:
              0.027406808 = score(doc=6025,freq=2.0), product of:
                0.11129492 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024967048 = queryNorm
                0.24625391 = fieldWeight in 6025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6025)
          0.5 = coord(1/2)
        0.027406808 = weight(_text_:bibliothekswesen in 6025) [ClassicSimilarity], result of:
          0.027406808 = score(doc=6025,freq=2.0), product of:
            0.11129492 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024967048 = queryNorm
            0.24625391 = fieldWeight in 6025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6025)
        0.004420214 = weight(_text_:in in 6025) [ClassicSimilarity], result of:
          0.004420214 = score(doc=6025,freq=6.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.1301535 = fieldWeight in 6025, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6025)
      0.23529412 = coord(4/17)
    
    Content
    "Der SuMa-eV vergibt zusammen mit dem Bundesverband Deutscher Internet-Portale (BDIP) die »SuMa Awards 2008« als neue Förderpreise für Suchmaschinen. Die SuMa Awards sprechen Programmierer, Künstler, Schriftsteller, Journalisten, Juristen, Wirtschaftswissenschaftler, Soziologen, Bibliothekare, Archivare, Mediziner, Eltern und jedem an, die/der die Veränderungen durch und den Einfluss von Suchmaschinen in seinem Umfeld oder für unsere Gesellschaft verarbeiten will. Eingereichte Arbeiten können sich sowohl mit praktischen als auch theoretischen Aufgabenstellungen und Lösungen im Bereich der SuchmaschinenTechnologie beschäftigen. Sie können aber genauso gesellschaftliche, wirtschaftliche, künstlerische, gesundheitliche oder andere Auswirkungen von Suchmaschinen-Anwendungen darstellen. Eine Jury wird aus den eingereichten Arbeiten die drei Besten auswählen. Diese werden: - zum SuMa-Kongress 2008 vorgestellt, - jeweils mit einem Preisgeld zwischen 2.000 und 3.000 Euro prämiert, - vom SuMa-eV im WWW präsentiert und technisch unterstützt. Die eingereichten Arbeiten müssen neu sein. Die Jury wählt die Preise in einem zweistufigen Verfahren aus: - Einreichen einer Kurzbeschreibung an den SuMa-eV sobald als möglich, spätestens aber bis zum 31.5.2008 (ca.1-2 Seiten DIN A4). - Aufgrund dieser Kurzbeschreibung entscheidet die Jury, ob und in welcher Form die Arbeit angenommen wird. Der endgültige Abgabetermin der Arbeit ist der 30.6.2008. - Die drei besten Arbeiten werden im Rahmen des nächsten SuMa-eV Kongresses im September 2008 präsentiert."
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.6, S.354
  17. FR: Google für Wissenschaftler (2004) 0.01
    0.014805308 = product of:
      0.08389674 = sum of:
        0.059629407 = weight(_text_:buch in 1977) [ClassicSimilarity], result of:
          0.059629407 = score(doc=1977,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.5136877 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.019163312 = weight(_text_:und in 1977) [ClassicSimilarity], result of:
          0.019163312 = score(doc=1977,freq=4.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.34630734 = fieldWeight in 1977, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.005104023 = weight(_text_:in in 1977) [ClassicSimilarity], result of:
          0.005104023 = score(doc=1977,freq=2.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.15028831 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.1764706 = coord(3/17)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  18. Long, J.: Google hacking (2008) 0.01
    0.014730666 = product of:
      0.08347377 = sum of:
        0.058424648 = weight(_text_:buch in 2925) [ClassicSimilarity], result of:
          0.058424648 = score(doc=2925,freq=12.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.5033091 = fieldWeight in 2925, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.017976781 = weight(_text_:und in 2925) [ClassicSimilarity], result of:
          0.017976781 = score(doc=2925,freq=22.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.3248651 = fieldWeight in 2925, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.0070723416 = weight(_text_:in in 2925) [ClassicSimilarity], result of:
          0.0070723416 = score(doc=2925,freq=24.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.2082456 = fieldWeight in 2925, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
      0.1764706 = coord(3/17)
    
    Abstract
    Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
  19. Libraries and Google (2005) 0.01
    0.014461621 = product of:
      0.06146189 = sum of:
        0.011925882 = weight(_text_:buch in 1973) [ClassicSimilarity], result of:
          0.011925882 = score(doc=1973,freq=2.0), product of:
            0.11608105 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024967048 = queryNorm
            0.10273754 = fieldWeight in 1973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
        0.012997191 = weight(_text_:und in 1973) [ClassicSimilarity], result of:
          0.012997191 = score(doc=1973,freq=46.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.23487706 = fieldWeight in 1973, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
        0.0052051027 = weight(_text_:in in 1973) [ClassicSimilarity], result of:
          0.0052051027 = score(doc=1973,freq=52.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.15326461 = fieldWeight in 1973, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
        0.031333715 = weight(_text_:bibliotheken in 1973) [ClassicSimilarity], result of:
          0.031333715 = score(doc=1973,freq=32.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.33305797 = fieldWeight in 1973, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
      0.23529412 = coord(4/17)
    
    Abstract
    Google[trademark] has become a nearly omnipresent tool of the Internet, with its potential only now beginning to be realised. How can librarians effectively integrate this powerful search engine to provide service to their patrons? "Libraries and Google[trademark]" presents leading authorities discussing the many possibilities of using Google products as effective, user-friendly tools in libraries. Google Scholar and Print are extensively explored with an eye towards offering an expanded view of what is and may be possible for the future, with practical insights on how to make the most of the product's capabilities.
    Content
    Introduction: Libraries and Their Interrelationships with Google - William Miller Disruptive Beneficence: The Google Print Program and the Future of Libraries - Mark Sandler The Google Library Project at Oxford - Ronald Milne The (Uncertain) Future of Libraries in a Google World: Sounding an Alarm - Rick Anderson A Gaggle of Googles: Limitations and Defects of Electronic Access as Panacea - -Mark Y. Herring Using the Google Search Appliance for Federated Searching: A Case Study - Mary Taylor Google's Print and Scholar Initiatives: The Value of and Impact on Libraries and Information Services - Robert J. Lackie Google Scholar vs. Library Scholar: Testing the Performance of Schoogle - Burton Callicott; Debbie Vaughn Google, the Invisible Web, and Librarians: Slaying the Research Goliath - Francine Egger-Sider; Jane Devine Choices in the Paradigm Shift: Where Next for Libraries? - Shelley E. Phipps; Krisellen Maloney Calling the Scholars Home: Google Scholar as a Tool for Rediscovering the Academic Library - Maurice C. York Checking Under the Hood: Evaluating Google Scholar for Reference Use - Janice Adlington; Chris Benda Running with the Devil: Accessing Library-Licensed Full Text Holdings Through Google Scholar - Rebecca Donlan; Rachel Cooke Directing Students to New Information Types: A New Role for Google in Literature Searches? - Mike Thelwall Evaluating Google Scholar as a Tool for Information Literacy Rachael Cathcart - Amanda Roberts Optimising Publications for Google Users - Alan Dawson Google and Privacy - Paul S. Piper Image: Google's Most Important Product - Ron Force Keeping Up with Google: Resources and Strategies for Staying Ahead of the Pack - Michael J. Krasulski; Steven J. Bell
    Footnote
    Co-published simultaneously as Internet reference services quarterly, vol. 10(1005), nos. 3/4 Rez. in: ZfBB 54(2007) H.2, S.98-99 (D. Lewandowski): "Google und Bibliotheken? Meist hat man leider den Eindruck, dass hier eher ein oder gedacht wird. Dies sehen auch die Herausgeber des vorliegenden Bandes und nehmen deshalb neben Beiträgen zur Diskussion um die Rolle der Bibliotheken im Zeitalter von Google auch solche auf, die Tipps zur Verwendung unterschiedlicher Google-Dienste geben. Die allgemeine Diskussion um Google und die Bibliotheken dreht sich vor allem um die Rolle, die Bibliotheken (mit ihren Informationsportalen) noch spielen können, wenn ihre Nutzer sowieso bei Google suchen, auch wenn die Bibliotheksangebote (zumindest von den Bibliothekaren) als überlegen empfunden werden. Auch wenn die Nutzer geschult werden, greifen sie doch meist lieber zur einfachen Recherchemöglichkeit bei Google oder anderen Suchmaschinen - vielleicht lässt sich die Situation am besten mit dem Satz eines im Buch zitierten Bibliothekars ausdrücken: »Everyone starts with Google except librarians.« (5.95) Sollen die Bibliotheken nun Google die einfache Recherche ganz überlassen und sich auf die komplexeren Suchfragen konzentrieren? Oder verlieren sie dadurch eine Nutzerschaft, die sich mittlerweile gar nicht mehr vorstellen kann, dass man mit anderen Werkzeugen als Suchmaschinen bessere Ergebnisse erzielen kann? Diese sicherlich für die Zukunft der Bibliotheken maßgebliche Frage wird in mehreren Beiträgen diskutiert, wobei auffällt, dass die jeweiligen Autoren keine klare Antwort bieten können, wie Bibliotheken ihre Quellen so präsentieren können, dass die Nutzer mit der Recherche so zufrieden sind, dass sie freiwillig in den Bibliotheksangeboten anstatt in Google recherchieren. Den Schwerpunkt des Buchs machen aber nicht diese eher theoretischen Aufsätze aus, sondern solche, die sich mit konkreten Google-Diensten beschäftigen. Aufgrund ihrer Nähe zu den Bibliotheksangeboten bzw. den Aufgaben der Bibliotheken sind dies vor allem Google Print und Google Scholar, aber auch die Google Search Appliance. Bei letzterer handelt es sich um eine integrierte Hard- und Softwarelösung, die die Indexierung von Inhalten aus unterschiedlichen Datenquellen ermöglicht. Der Aufsatz von Mary Taylor beschreibt die Vor- und Nachteile des Systems anhand der praktischen Anwendung in der University of Nevada.
    Ebenfalls direkt aus der Praxis erhält der Leser Informationen zum Google-PrintProgramm. Robert Milne beschreibt die Zusammenarbeit von Google und der Universität Oxford. In diesem Aufsatz wird - was dem Autor natürlich nicht anzulasten ist - ein Problem des vorliegenden Werks deutlich: Viele Informationen sind doch von sehr beschränkter Haltbarkeit. Der Redaktionsschluss war im Frühsommer 2005, sodass sich in vielen Bereichen bereits neue Entwicklungen ergeben haben. Dies ist beim Print-Programm der Fall, vor allem wird es aber bei dem Hauptthema des Bandes, nämlich Google Scholar, deutlich. Dieser Dienst wurde im November 2004 gestartet und stieß auf unterschiedlichste Reaktionen, die (anhand von Beispielen amerikanischer Bibliotheken) im Beitrag von Maurice C. York beschrieben werden. Einige Bibliotheken nahmen den Dienst begeistert auf und verlinkten diesen mit Lob versehen auf ihren Websites. Andere reagierten gegenteilig und warnten vor dessen schlechter Qualität. Auch weil vorauszusehen war, dass Google Scholar bei den Nutzern gut ankommen würde, darf das folgende Statement von einer Bibliothekswebsite geradezu als ignorant gelten: Google Scholar »is wonderful for those who do not have access to the library's databases« (S.119). Wie nun die Scholar-Nutzer auf die Bibliotheksangebote gelenkt werden können, beschreibt der ironisch »Running with the Devil« betitelte Aufsatz von Rebecca Donlan und Rachel Cooke. Die Autorinnen beschreiben den Einsatz von Link-Resolvern und gehen auf die in Google Scholar bestehenden Probleme durch unklare Bezeichnungen in den Trefferlisten ein. Einige Beispiele zeigen, dass Google Scholar auch in Kombination mit der Verlinkung auf die Bibliotheksbestände keine befriedigende Recherchesituation herstellt, sondern vielmehr weitere Anstrengungen nötig sind, um »das Beste beider Welten« zusammenzuführen. Zwei weitere Aufsätze beschäftigen sich mit der Frage, wie gut Google Scholar eigentlich ist. Einmal geht es darum, wie gut Scholar den »ACRL Information Literacy Standards« genügt. Der zweite Beitrag vergleicht Google Scholar anhand von fünf Suchaufgaben einerseits mit einem lokalen Bibliothekskatalog, andererseits mit EBSCOs Academic Search Premier und jeweils einer fachspezifischen Datenbank. Die Ergebnisse zeigen keine durchgehende Überlegenheit einer Suchlösung, vielmehr wird deutlich, dass es auf die Auswahl des richtigen Suchwerkzeugs für die bestehende Suchanfrage ankommt bzw. dass erst eine Kombination dieser Werkzeuge zu optimalen Ergebnissen führt. Man könnte also auch hier wieder sagen: Google und Bibliotheken, nicht Google oder Bibliotheken.
    Ein besonders interessanter Aufsatz widmet sich der Frage, wie Bibliotheken ihre Web-Angebote (hier: vor allem die Seiten zu digitalisierten Werken) so optimieren können, dass sie von Google und anderen Suchmaschinen optimal indexiert werden können. Dies wird leicht verständlich erklärt und dürfte für viele Bibliotheken, deren entsprechende Websites noch suboptimal gestaltet sind, eine gute Hilfestellung sein. Auch sehr praktisch orientiert ist der letzte Beitrag des Bandes, der verschiedene Quellen vorstellt, die sich mit aktuellen Entwicklungen bei Google (bzw. bei Suchmaschinen allgemein) beschäftigen, diese einzeln bewertet und Empfehlungen abgibt, welche man regelmäßig und welche man ab und zu lesen sollte. Die Bedeutung ist hier klar: Wenn Bibliotheken sich mit Google messen (oder darüber hinaus gehen?) möchten, müssen sie die Konkurrenz und ihre aktuellen Produkte kennen. Interessant wäre gewesen, noch den einen oder anderen Beitrag zu Suchprodukten von Bibliotheksseite zu lesen. Wie sollten solche Produkte beschaffen sein, um den Google-Nutzer zu den Bibliotheksangeboten zu führen? Welche Angebote gibt es hier bereits? Wie sehen die Anbieter von OPACs und Bibliothekssystemen die Zukunft der Bibliotheksrecherche? Und auch auf die nach Meinung des Rezensenten zurzeit wohl wichtigste Frage im Google-Kontext wird nicht eingegangen: Wie kann es den Bibliotheken gelingen, ein System (oder Systeme) zu schaffen, das nicht nur versucht, die Stärken der Suchmaschinen zu adaptieren, sondern ihnen einen Schritt voraus zu sein? Diese Kritik soll aber nicht darüber hinwegtäuschen, dass es sich bei dem vorliegenden Werk um eine gut lesbare Zusammenstellung von Aufsätzen handelt, die allen empfohlen werden kann, die sich einen Überblick zur Thematik verschaffen wollen, die Diskussion in den internationalen Fachzeitschriften aber nicht sowieso minutiös verfolgen."
    Weitere Rez. in JASIST 59(2008) H.9, S.1531-1533 (J. Satyanesan): "Libraries and Google is an interesting and enlightening compilation of 18 articles on Google and its impact on libraries. The topic is very current, debatable, and thought provoking. Google has profoundly empowered individuals and transformed access to information and librarians are very much concerned about its popularity and visibility. In this book, the leading authorities discuss the usefulness of Google, its influence and potential menace to libraries, and its implications for libraries and the scholarly communication. They offer practical suggestions to cope with the changing situation. The articles are written from different perspective and express all shades of opinion, both hopeful and fearful. One can discern varied moods-apprehension, resignation, encouragement, and motivation-on the part of the librarians. This is an important book providing a wealth of information for the 21st century librarian. There is a section called "Indexing, Abstracting & Website/Internet Coverage," which lists major indexing and abstracting services and other tools for bibliographic access. The format of the articles is uniform with an introduction, key words, and with the exception of two articles the rest have summaries and conclusions. References and notes of varying lengths are included in each article. This book has been copublished simultaneously as Internet Reference Quarterly, 10(3/4), 2005. Although there are single articles written on Google and libraries, this is the first book-length treatment of the topic.
    ... This book is written by library professionals and aimed at the librarians in particular, but it will be useful to others who may be interested in knowing what libraries are up to in the age of Google. It is intended for library science educators and students, library administrators, publishers and university presses. It is well organized, well researched, and easily readable. Article titles are descriptive, allowing the reader to find what he needs by scanning the table of contents or by consulting the index. The only flaw in this book is the lack of summary or conclusions in a few articles. The book is in paperback and has 240 pages. This book is a significant contribution and I highly recommend it."
    LCSH
    Communication in learning and scholarship / Technological innovations
    Subject
    Communication in learning and scholarship / Technological innovations
  20. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.01
    0.014210437 = product of:
      0.060394358 = sum of:
        0.028744971 = weight(_text_:und in 3423) [ClassicSimilarity], result of:
          0.028744971 = score(doc=3423,freq=36.0), product of:
            0.055336144 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024967048 = queryNorm
            0.51946104 = fieldWeight in 3423, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.003609089 = weight(_text_:in in 3423) [ClassicSimilarity], result of:
          0.003609089 = score(doc=3423,freq=4.0), product of:
            0.033961542 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.024967048 = queryNorm
            0.10626988 = fieldWeight in 3423, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.019583572 = weight(_text_:bibliotheken in 3423) [ClassicSimilarity], result of:
          0.019583572 = score(doc=3423,freq=2.0), product of:
            0.09407886 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.024967048 = queryNorm
            0.20816123 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.008456727 = product of:
          0.016913453 = sum of:
            0.016913453 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.016913453 = score(doc=3423,freq=2.0), product of:
                0.08743035 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024967048 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.5 = coord(1/2)
      0.23529412 = coord(4/17)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.3, S.189-190

Languages

  • d 352
  • e 239
  • sp 1
  • More… Less…

Types

  • a 501
  • el 44
  • m 43
  • x 12
  • s 7
  • r 2
  • More… Less…

Subjects

Classifications