Search (537 results, page 1 of 27)

  • × theme_ss:"Suchmaschinen"
  1. Summann, F.; Wolf, S.: BASE-Suchmaschinentechnologie für digitale Bibliotheken (2005) 0.03
    0.0343941 = product of:
      0.0687882 = sum of:
        0.061649315 = weight(_text_:digitale in 3191) [ClassicSimilarity], result of:
          0.061649315 = score(doc=3191,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
        0.0071388874 = weight(_text_:information in 3191) [ClassicSimilarity], result of:
          0.0071388874 = score(doc=3191,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.116372846 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
      0.5 = coord(2/4)
    
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.51-57
  2. Mönnich, M.: Internet-Suchmaschinen : neue Entwicklungen und Trends (1996) 0.03
    0.025687214 = product of:
      0.102748856 = sum of:
        0.102748856 = weight(_text_:digitale in 5283) [ClassicSimilarity], result of:
          0.102748856 = score(doc=5283,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.5699664 = fieldWeight in 5283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.078125 = fieldNorm(doc=5283)
      0.25 = coord(1/4)
    
    Source
    Die digitale Revolution: Deutscher Dokumentartag 1996, Neue Universität Heidelberg, 24.-26.9.1996. Hrsg.: W. Neubauer
  3. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.02
    0.023581048 = product of:
      0.047162097 = sum of:
        0.043592654 = weight(_text_:digitale in 4318) [ClassicSimilarity], result of:
          0.043592654 = score(doc=4318,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.24181628 = fieldWeight in 4318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0035694437 = weight(_text_:information in 4318) [ClassicSimilarity], result of:
          0.0035694437 = score(doc=4318,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.058186423 = fieldWeight in 4318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
      0.5 = coord(2/4)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
  4. Digitale Bibliotheken mit Google (2005) 0.02
    0.020549772 = product of:
      0.08219909 = sum of:
        0.08219909 = weight(_text_:digitale in 4956) [ClassicSimilarity], result of:
          0.08219909 = score(doc=4956,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 4956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0625 = fieldNorm(doc=4956)
      0.25 = coord(1/4)
    
  5. Lee, F.R.: ¬The library, unbound and everywhere (2004) 0.02
    0.018981773 = product of:
      0.037963547 = sum of:
        0.030824658 = weight(_text_:digitale in 3099) [ClassicSimilarity], result of:
          0.030824658 = score(doc=3099,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.17098992 = fieldWeight in 3099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3099)
        0.0071388874 = weight(_text_:information in 3099) [ClassicSimilarity], result of:
          0.0071388874 = score(doc=3099,freq=8.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.116372846 = fieldWeight in 3099, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3099)
      0.5 = coord(2/4)
    
    Content
    "When Randall C. Jimerson, the president of the Society of American Archivists, heard of Google's plan to convert certain holdings at Oxford University and at some of the leading research libraries in the United States into digital files, searchable over the Web, he asked, "What are they thinking?" Mr. Jimerson had worries. Who would select the material? How would it be organized and identified to avoid mountains of excerpts taken out of context? Would Google users eventually forgo the experience of holding a book or looking at a historicaldocument? But in recent interviews, many scholars and librarians applauded the announcement by Google, the operator of the world's most popular Internet search service, to digitize some of the collections at Oxford, the University of Michigan, Stanford University, Harvard and the New York Public Library. The plan, in the words of Paul Duguid, information specialist at the University of California at Berkeley, will "blast wide open" the walls around the libraries of world-class institutions.
    David Nasaw, a historian and director of the Center for the Humanities at the City University of New York's Graduate Center, said the ability to use keywords to locate books and documents could save academics traveltime and money and broaden their research. "This all captures people's imagination in a wonderful way," Said Kate Wittenberg, director of the Electronic Publishing Initiative at Columbia University. "But whether it's right or wrong is not the whole question and not the whole answer." This year Ms. Wittenberg's group completed a three-year study of research habits that included 1,233 students. The study concluded that electronic resources had become the main tool for gathering information, particularly among undergraduates. But Ms. Wittenberg does have concerns. "What I've learned is that libraries help people formulate questions as well as find answers," Ms. Wittenberg said. "Who will do that in a virtual world?" On the other hand, she Said, an enhanced databank could make it easier for students to research topics across disciplines. For example, a topic like "climate change" touches an both political science and science, she Said, and "in the physical world, the books about them are in two different buildings at Columbia." Online research could bring the two subjects together instantly. Robert Darnton, a professor of history at Princeton who is writing a book about the history of books, noted that by looking at a book's binding and paper quality, a researcher can discern much about the period in which it was published, the publisher and the intended audience.
    "There may be some false consciousnesses about this breakthrough, that all learning will be at our fingertips," Mr. Darnton said of the plans to enhance Google's database. He saw room for both Google and real-world research. Libraries have already been changed by the Internet, said Paul LeClerc, president and chief executive of the New York Public Library: But libraries will still be needed to coliect and store information, he said. "TV did replace radio," Mr. LeCIerc said. "Videos and DVD's did not replace people going to the movies. It's still easier to read a book by hand than online." "The New-York Public Library Web site gets three-fourths of a billion hits a year from 200 different countries and territories, and that's with no marketing or advertising," he said. "That's the context in which this new element has to be placed." "We had 13 million reader visits last year," he continued. "We're serving a multiplicity of audiences - we serve people physically and virtually. It's an enormous contribution to human intellectual development." Many university leaders realize that for most people, information does not exist unless it is online, said Paul Courant, provost and executive vice president for academic affairs at the University of Michigan. Mr. Courant envisioned that in 20 years archives would be shared by institutions. While the world needs "tens of thousands of copies of 'To the Lighthouse,"' he said, "we don't need to have a zillion copies of some arcane monograph written by a sociologist in 1951."
    Footnote
    Beilage zur Süddeutschen Zeitung. - Vgl. auch die Notiz in: CD Info 2005, H.2, S.14: "Digitale Bibliotheken mit Google"
  6. Schlüter, C.: Europa auf dem Rückzug : Googles digitale Bibliothek (2006) 0.01
    0.014530884 = product of:
      0.058123536 = sum of:
        0.058123536 = weight(_text_:digitale in 5983) [ClassicSimilarity], result of:
          0.058123536 = score(doc=5983,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.3224217 = fieldWeight in 5983, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=5983)
      0.25 = coord(1/4)
    
    Content
    "Endlich, der lange erwartete Untergang des Abendlandes ist da. Nach einigen juristischen Scharmützeln und auch technisch bedingten Verzögerungen bietet das US-Internetportal Google nun den kompletten Inhalt von Büchern vor allem aus den Beständen amerikanischer Bibliotheken an. Im Zuge des Google Book Search - in Deutschland Google Buchsuche - genannten Projekts will der weltweit erfolgreichste Suchmaschinenbetreiber Millionen von Büchern ins Netz stellen. Nutzer dieses Angebots bekommen allerdings als Antwort auf ihre Suchanfrage nicht den kompletten Buchtext zu sehen, sondern nur kurze, nicht sonderlich aussagefähige Schnipsel. Doch immerhin, ein Anfang ist gemacht, der große ganze Rest wird kommen, bestimmt. Eine Vorahnung von Ausmaß und Möglichkeiten des Projekts geben die von Google bereits eingescannten Bücher, deren Copyright abgelaufen ist: Sie stehen zum Download als PDF-Datei bereit. Bislang konnten Werke wie Dantes Inferno oder Goethes Faust nur am Bildschirm betrachtet werden, nun lassen sie sich auch herunterladen und ausdrucken. Google hat sich verpflichtet, von den Nutzern für die Suche und das Betrachten der Bücher, die nicht urheberrechtlich geschützt sind, keine Gebühren zu verlangen. Darüber hinaus hat des Unternehmen unlängst mit der Universität von Kalifornien eine Vereinbarung getroffen, wonach in den nächsten sechs Jahren mindestens 2,5 Millionen Bände digitalisiert werden dürfen. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es allerdings nicht nur juristische, besonders das Urheberrecht betreffende Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt? Und eine Alternative, etwa die als GoogleKiller annoncierte Europäische Digitale Bibliothek namens Quaero, ist immer noch nicht in Sicht. Überdies wird hier die Beteiligung privater Unternehmen (Bertelsmann, Siemens...) der befürchteten Kommerzialisierung des Weltwissens kaum Einhalt gebieten. Weshalb wir nicht so sehr den amerikanischen Kulturimperialismus, sondern den Rückzug des Staates aus seiner öffentlichen Verantwortung zu beklagen haben."
  7. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.01
    0.014530884 = product of:
      0.058123536 = sum of:
        0.058123536 = weight(_text_:digitale in 431) [ClassicSimilarity], result of:
          0.058123536 = score(doc=431,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.3224217 = fieldWeight in 431, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.25 = coord(1/4)
    
    Content
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  8. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.01
    0.013189325 = product of:
      0.02637865 = sum of:
        0.020549772 = weight(_text_:digitale in 4871) [ClassicSimilarity], result of:
          0.020549772 = score(doc=4871,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.11399328 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.005828877 = weight(_text_:information in 4871) [ClassicSimilarity], result of:
          0.005828877 = score(doc=4871,freq=12.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.09501803 = fieldWeight in 4871, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
      0.5 = coord(2/4)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
  9. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 1888) [ClassicSimilarity], result of:
          0.051374428 = score(doc=1888,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 1888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1888)
      0.25 = coord(1/4)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  10. Google digitalisiert 15 Millionen Bücher (2005) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 3775) [ClassicSimilarity], result of:
          0.051374428 = score(doc=3775,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 3775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
      0.25 = coord(1/4)
    
    Content
    "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
  11. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 5742) [ClassicSimilarity], result of:
          0.051374428 = score(doc=5742,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.25 = coord(1/4)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  12. hbz: ¬Das Suchraum-Konzept (2007) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 310) [ClassicSimilarity], result of:
          0.051374428 = score(doc=310,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
      0.25 = coord(1/4)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  13. Gillitzer, B.: Yewno (2017) 0.01
    0.010274886 = product of:
      0.041099545 = sum of:
        0.041099545 = weight(_text_:digitale in 3447) [ClassicSimilarity], result of:
          0.041099545 = score(doc=3447,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.22798656 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
      0.25 = coord(1/4)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
  14. Haubner, S.: Was uns Google vorenthält : Alternativen zum Marktführer gibt es beim Suchen im Internet kaum - Wir erklären, wie der Suchmaschinen-Gigant "Google" funktioniert. (2012) 0.01
    0.009081802 = product of:
      0.03632721 = sum of:
        0.03632721 = weight(_text_:digitale in 6) [ClassicSimilarity], result of:
          0.03632721 = score(doc=6,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.20151356 = fieldWeight in 6, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=6)
      0.25 = coord(1/4)
    
    Content
    Keine ernsthafte Konkurrenz Damit ist die Geschichte der Suchmaschinen weitestgehend erzählt - außer, dass Yahoo praktisch keine Rolle mehr spielt. Um das Gesuchte in den Weiten des Netzes zu finden, benutzt man heute Google. Mehr als 90 Prozent aller Suchanfragen in Deutschland laufen Schätzungen zufolge über die Rechenzentren des US-Konzerns. Ernsthafte Konkurrenten? Keine. Einst erfolgreiche Dienste wie Excite, Infoseek, AltaVista oder Lycos sind längst von der Bildfläche verschwunden. Liefert nicht Google zu allen erdenklichen Suchbegriffen zigtausend Ergebnisse? Mehr, so die allgemeine Auffassung, kann sowieso kein Mensch verarbeiten. Dahinter steht der naive Glaube, Google bilde die digitale Welt in ihrer Gesamtheit ab. Oder, schlimmer noch, gar die reale Welt. Dabei könnte nichts weiter von der Realität entfernt sein, wie Dr. Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Leibniz-Universität Hannover erklärt. Denn Google entscheidet, nach welchen Kriterien die digitale Welt durchkämmt wird. Google legt fest, welche Webseiten unter den ersten zehn Ergebnissen zu einer Suche angezeigt werden. Da die Mehrheit der Nutzer ohnehin nur diese wahrnimmt, bestimmt ein einzelnes Unternehmen, welchen Ausschnitt der Wirklichkeit die Menschheit zu sehen bekommt. Und die Algorithmen, nach denen die Suchmaschine funktioniert, hält der Konzern streng unter Verschluss: "Google entscheidet, welches Wissen wahrgenommen wird, und welches nicht; was im Internet existiert und was nicht." Die Macht, die dem Konzern damit zukomme, reiche weit über die Kontrolle des Wissenszugangs durch Suchmaschinen hinaus. "Was wir hier beobachten, ist eine Monokultur mit gravierenden Folgen für die Informations- und Wissenskultur", warnt der Wissenschaftler, der deshalb bereits vor Jahren "SuMa e.V.", einen "Verein für freien Wissenszugang", gegründet hat. Er setzt sich dafür ein, "globale Online-Oligopole besser zu kontrollieren". Um den freien Zugang zu dem im Internet gespeicherten Wissen für möglichst viele Menschen zu ermöglichen, sei es außerdem "von entscheidender Bedeutung, die dahinterstehende Technologie zu entwickeln und zu fördern - auch und gerade in Deutschland." Doch genau das wurde in den vergangenen zehn Jahren versäumt.
  15. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.008990525 = product of:
      0.0359621 = sum of:
        0.0359621 = weight(_text_:digitale in 1333) [ClassicSimilarity], result of:
          0.0359621 = score(doc=1333,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.19948824 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
      0.25 = coord(1/4)
    
    Content
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
  16. Digitale Schnüfler (2008) 0.01
    0.008990525 = product of:
      0.0359621 = sum of:
        0.0359621 = weight(_text_:digitale in 2205) [ClassicSimilarity], result of:
          0.0359621 = score(doc=2205,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.19948824 = fieldWeight in 2205, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
      0.25 = coord(1/4)
    
  17. Tomaiuolo, N.G.; Packer, J.G.: Web search engines : key to locating information for all users or only the cognoscenti? (1996) 0.01
    0.0071388874 = product of:
      0.02855555 = sum of:
        0.02855555 = weight(_text_:information in 2412) [ClassicSimilarity], result of:
          0.02855555 = score(doc=2412,freq=8.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.46549138 = fieldWeight in 2412, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=2412)
      0.25 = coord(1/4)
    
    Imprint
    Oxford : Learned Information
    Source
    Online information 96: 20th International online information meeting, Proceedings, London, 3-5 December 1996. Ed.: D.I. Raitt u. B. Jeapes
  18. Bradley, P.: Advanced Internet searcher's handbook (1998) 0.01
    0.0066512655 = product of:
      0.026605062 = sum of:
        0.026605062 = weight(_text_:information in 5454) [ClassicSimilarity], result of:
          0.026605062 = score(doc=5454,freq=10.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.43369597 = fieldWeight in 5454, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=5454)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information world review. 1999, no.146, S.26 (D. Parr)
    LCSH
    World Wide Web (Information retrieval system)
    Information retrieval
    Subject
    World Wide Web (Information retrieval system)
    Information retrieval
  19. Cooke, A.: ¬A guide to finding quality information on the Internet : selection and evaluation strategies (1999) 0.01
    0.0066512655 = product of:
      0.026605062 = sum of:
        0.026605062 = weight(_text_:information in 662) [ClassicSimilarity], result of:
          0.026605062 = score(doc=662,freq=10.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.43369597 = fieldWeight in 662, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=662)
      0.25 = coord(1/4)
    
    LCSH
    Information retrieval
    Library information networks
    Subject
    Information retrieval
    Library information networks
  20. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.0064218035 = product of:
      0.025687214 = sum of:
        0.025687214 = weight(_text_:digitale in 1721) [ClassicSimilarity], result of:
          0.025687214 = score(doc=1721,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.1424916 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.25 = coord(1/4)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.

Years

Languages

Types

  • a 478
  • el 36
  • m 30
  • s 10
  • x 7
  • r 1
  • More… Less…

Subjects

Classifications