Search (177 results, page 1 of 9)

  • × theme_ss:"Suchmaschinen"
  1. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.09
    0.08725111 = product of:
      0.13087666 = sum of:
        0.06227685 = weight(_text_:digitale in 4318) [ClassicSimilarity], result of:
          0.06227685 = score(doc=4318,freq=4.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.24181628 = fieldWeight in 4318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.06859981 = sum of:
          0.04830836 = weight(_text_:bibliothek in 4318) [ClassicSimilarity], result of:
            0.04830836 = score(doc=4318,freq=6.0), product of:
              0.20495859 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.049922563 = queryNorm
              0.23569816 = fieldWeight in 4318, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4318)
          0.020291453 = weight(_text_:22 in 4318) [ClassicSimilarity], result of:
            0.020291453 = score(doc=4318,freq=2.0), product of:
              0.1748203 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.049922563 = queryNorm
              0.116070345 = fieldWeight in 4318, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4318)
      0.6666667 = coord(2/3)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
    Date
    3. 5.1997 8:44:22
  2. Schlüter, C.: Europa auf dem Rückzug : Googles digitale Bibliothek (2006) 0.07
    0.07288769 = product of:
      0.10933153 = sum of:
        0.0830358 = weight(_text_:digitale in 5983) [ClassicSimilarity], result of:
          0.0830358 = score(doc=5983,freq=4.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.3224217 = fieldWeight in 5983, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=5983)
        0.02629574 = product of:
          0.05259148 = sum of:
            0.05259148 = weight(_text_:bibliothek in 5983) [ClassicSimilarity], result of:
              0.05259148 = score(doc=5983,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.25659564 = fieldWeight in 5983, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5983)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Endlich, der lange erwartete Untergang des Abendlandes ist da. Nach einigen juristischen Scharmützeln und auch technisch bedingten Verzögerungen bietet das US-Internetportal Google nun den kompletten Inhalt von Büchern vor allem aus den Beständen amerikanischer Bibliotheken an. Im Zuge des Google Book Search - in Deutschland Google Buchsuche - genannten Projekts will der weltweit erfolgreichste Suchmaschinenbetreiber Millionen von Büchern ins Netz stellen. Nutzer dieses Angebots bekommen allerdings als Antwort auf ihre Suchanfrage nicht den kompletten Buchtext zu sehen, sondern nur kurze, nicht sonderlich aussagefähige Schnipsel. Doch immerhin, ein Anfang ist gemacht, der große ganze Rest wird kommen, bestimmt. Eine Vorahnung von Ausmaß und Möglichkeiten des Projekts geben die von Google bereits eingescannten Bücher, deren Copyright abgelaufen ist: Sie stehen zum Download als PDF-Datei bereit. Bislang konnten Werke wie Dantes Inferno oder Goethes Faust nur am Bildschirm betrachtet werden, nun lassen sie sich auch herunterladen und ausdrucken. Google hat sich verpflichtet, von den Nutzern für die Suche und das Betrachten der Bücher, die nicht urheberrechtlich geschützt sind, keine Gebühren zu verlangen. Darüber hinaus hat des Unternehmen unlängst mit der Universität von Kalifornien eine Vereinbarung getroffen, wonach in den nächsten sechs Jahren mindestens 2,5 Millionen Bände digitalisiert werden dürfen. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es allerdings nicht nur juristische, besonders das Urheberrecht betreffende Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt? Und eine Alternative, etwa die als GoogleKiller annoncierte Europäische Digitale Bibliothek namens Quaero, ist immer noch nicht in Sicht. Überdies wird hier die Beteiligung privater Unternehmen (Bertelsmann, Siemens...) der befürchteten Kommerzialisierung des Weltwissens kaum Einhalt gebieten. Weshalb wir nicht so sehr den amerikanischen Kulturimperialismus, sondern den Rückzug des Staates aus seiner öffentlichen Verantwortung zu beklagen haben."
  3. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.07
    0.07172564 = product of:
      0.107588455 = sum of:
        0.051375777 = weight(_text_:digitale in 1333) [ClassicSimilarity], result of:
          0.051375777 = score(doc=1333,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.19948824 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.056212682 = sum of:
          0.03253932 = weight(_text_:bibliothek in 1333) [ClassicSimilarity], result of:
            0.03253932 = score(doc=1333,freq=2.0), product of:
              0.20495859 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.049922563 = queryNorm
              0.15876046 = fieldWeight in 1333, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1333)
          0.023673363 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
            0.023673363 = score(doc=1333,freq=2.0), product of:
              0.1748203 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.049922563 = queryNorm
              0.1354154 = fieldWeight in 1333, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1333)
      0.6666667 = coord(2/3)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
  4. Google digitalisiert 15 Millionen Bücher (2005) 0.07
    0.07084243 = product of:
      0.10626364 = sum of:
        0.07339396 = weight(_text_:digitale in 3775) [ClassicSimilarity], result of:
          0.07339396 = score(doc=3775,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.2849832 = fieldWeight in 3775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
        0.032869674 = product of:
          0.06573935 = sum of:
            0.06573935 = weight(_text_:bibliothek in 3775) [ClassicSimilarity], result of:
              0.06573935 = score(doc=3775,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.32074454 = fieldWeight in 3775, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3775)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
  5. hbz: ¬Das Suchraum-Konzept (2007) 0.06
    0.064424224 = product of:
      0.09663633 = sum of:
        0.07339396 = weight(_text_:digitale in 310) [ClassicSimilarity], result of:
          0.07339396 = score(doc=310,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.2849832 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
        0.023242371 = product of:
          0.046484742 = sum of:
            0.046484742 = weight(_text_:bibliothek in 310) [ClassicSimilarity], result of:
              0.046484742 = score(doc=310,freq=2.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.22680065 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=310)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  6. Mönnich, M.: Internet-Suchmaschinen : neue Entwicklungen und Trends (1996) 0.05
    0.04892931 = product of:
      0.14678793 = sum of:
        0.14678793 = weight(_text_:digitale in 5283) [ClassicSimilarity], result of:
          0.14678793 = score(doc=5283,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.5699664 = fieldWeight in 5283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.078125 = fieldNorm(doc=5283)
      0.33333334 = coord(1/3)
    
    Source
    Die digitale Revolution: Deutscher Dokumentartag 1996, Neue Universität Heidelberg, 24.-26.9.1996. Hrsg.: W. Neubauer
  7. Gillitzer, B.: Yewno (2017) 0.05
    0.048161875 = product of:
      0.07224281 = sum of:
        0.058715172 = weight(_text_:digitale in 3447) [ClassicSimilarity], result of:
          0.058715172 = score(doc=3447,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.22798656 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0135276355 = product of:
          0.027055271 = sum of:
            0.027055271 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.027055271 = score(doc=3447,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  8. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.04
    0.04282871 = product of:
      0.12848613 = sum of:
        0.12848613 = sum of:
          0.074375585 = weight(_text_:bibliothek in 1770) [ClassicSimilarity], result of:
            0.074375585 = score(doc=1770,freq=2.0), product of:
              0.20495859 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.049922563 = queryNorm
              0.36288103 = fieldWeight in 1770, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0625 = fieldNorm(doc=1770)
          0.054110542 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
            0.054110542 = score(doc=1770,freq=2.0), product of:
              0.1748203 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.049922563 = queryNorm
              0.30952093 = fieldWeight in 1770, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1770)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2008 14:04:11
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  9. Digitale Bibliotheken mit Google (2005) 0.04
    0.03914345 = product of:
      0.117430344 = sum of:
        0.117430344 = weight(_text_:digitale in 4956) [ClassicSimilarity], result of:
          0.117430344 = score(doc=4956,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.45597312 = fieldWeight in 4956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0625 = fieldNorm(doc=4956)
      0.33333334 = coord(1/3)
    
  10. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.03
    0.032212112 = product of:
      0.048318166 = sum of:
        0.03669698 = weight(_text_:digitale in 1721) [ClassicSimilarity], result of:
          0.03669698 = score(doc=1721,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.1424916 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.011621186 = product of:
          0.023242371 = sum of:
            0.023242371 = weight(_text_:bibliothek in 1721) [ClassicSimilarity], result of:
              0.023242371 = score(doc=1721,freq=2.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.113400325 = fieldWeight in 1721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1721)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
  11. Summann, F.; Wolf, S.: BASE-Suchmaschinentechnologie für digitale Bibliotheken (2005) 0.03
    0.029357586 = product of:
      0.088072754 = sum of:
        0.088072754 = weight(_text_:digitale in 3191) [ClassicSimilarity], result of:
          0.088072754 = score(doc=3191,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.34197983 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
      0.33333334 = coord(1/3)
    
  12. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.03
    0.0276786 = product of:
      0.0830358 = sum of:
        0.0830358 = weight(_text_:digitale in 431) [ClassicSimilarity], result of:
          0.0830358 = score(doc=431,freq=4.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.3224217 = fieldWeight in 431, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(1/3)
    
    Content
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  13. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.03
    0.02643009 = product of:
      0.07929027 = sum of:
        0.07929027 = product of:
          0.2378708 = sum of:
            0.2378708 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.2378708 = score(doc=2514,freq=2.0), product of:
                0.42324406 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.049922563 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  14. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.02
    0.024464656 = product of:
      0.07339396 = sum of:
        0.07339396 = weight(_text_:digitale in 1888) [ClassicSimilarity], result of:
          0.07339396 = score(doc=1888,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.2849832 = fieldWeight in 1888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1888)
      0.33333334 = coord(1/3)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  15. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.02
    0.024464656 = product of:
      0.07339396 = sum of:
        0.07339396 = weight(_text_:digitale in 5742) [ClassicSimilarity], result of:
          0.07339396 = score(doc=5742,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.2849832 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.33333334 = coord(1/3)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  16. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.02
    0.024080938 = product of:
      0.036121406 = sum of:
        0.029357586 = weight(_text_:digitale in 4871) [ClassicSimilarity], result of:
          0.029357586 = score(doc=4871,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.11399328 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.0067638177 = product of:
          0.0135276355 = sum of:
            0.0135276355 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.0135276355 = score(doc=4871,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Date
    22. 1.2006 18:34:49
  17. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.02
    0.019130968 = product of:
      0.057392903 = sum of:
        0.057392903 = product of:
          0.114785805 = sum of:
            0.114785805 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.114785805 = score(doc=3227,freq=4.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  18. Höfer, W.: Detektive im Web (1999) 0.02
    0.019130968 = product of:
      0.057392903 = sum of:
        0.057392903 = product of:
          0.114785805 = sum of:
            0.114785805 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.114785805 = score(doc=4007,freq=4.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 20:22:06
  19. Rensman, J.: Blick ins Getriebe (1999) 0.02
    0.019130968 = product of:
      0.057392903 = sum of:
        0.057392903 = product of:
          0.114785805 = sum of:
            0.114785805 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.114785805 = score(doc=4009,freq=4.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 21:22:59
  20. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.02
    0.018737562 = product of:
      0.056212682 = sum of:
        0.056212682 = sum of:
          0.03253932 = weight(_text_:bibliothek in 5114) [ClassicSimilarity], result of:
            0.03253932 = score(doc=5114,freq=2.0), product of:
              0.20495859 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.049922563 = queryNorm
              0.15876046 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
          0.023673363 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
            0.023673363 = score(doc=5114,freq=2.0), product of:
              0.1748203 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.049922563 = queryNorm
              0.1354154 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
      0.33333334 = coord(1/3)
    
    Content
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46

Years

Languages

  • d 107
  • e 68
  • f 1
  • nl 1
  • More… Less…

Types

  • a 158
  • el 11
  • m 8
  • x 4
  • p 2
  • s 2
  • r 1
  • More… Less…