Document (#29030)

Author
Flohr, M.
Title
Daten für die Ewigkeit
Source
Chip. 2005, H.12, S.98-102
Year
2005
Abstract
Google scannt die altehrwürdige Bibliothek in Oxford. Doch wie lange halten die digitalisierten Werke? Sind unsere Daten auf CDs, Platten und Bändern in einigen Jahren überhaupt noch lesbar?
Content
"Was haben Ihre Urlaubsfotos mit dem kulturellen Erbe der Menschheit zu tun? An beiden nagt unerbittlich der Zahn der Zeit. Auf den Bildern aus Irland fehlt nach 20 Jahren ausgerechnet das so charakteristische Grün, die winterliche Gebirgslandschaft ist in penetrantes Rosarot gehüllt und das letzte Weihnachtsfest verblasst schneller als jede Erinnerung. In unseren Bibliotheken und Archiven bedrohen derweil Schimmel, Tintenfraß und Säure unersetzliches Schriftgut. Elektronische Medien können zwar Backups speichern, schaffen aber auch neue Probleme: Keiner weiß, wie lange die Daten beispielsweise auf einer CD wirklich halten. Der private Anwender kann hier von Profis lernen, für die Langzeit-Archivierung ein Dauerbrenner ist. Jedes Jahr entstehen weltweit inzwischen mehr als eine Milliarde Gigabyte an Informationen, von denen gerade einmal 0,003 Prozent gedruckt werden. Der Löwenanteil der neu generierten Informationen besteht aus Bildern, Animationen, Filmen, Ton, Grafiken und anderen Multimedia-Daten. Ein Teil davon ist wichtig - auch über den Tag hinaus. "Elektronische Medien sind nicht archivierbar", meinte Clifford Stoll, amerikanischer Astronom und Spezialist für Datenschutz und Computersicherheit, 1996 in seinem Buch "Die Wüste Internet. Geisterfahrten auf der Datenautobahn". Historiker sind nicht die einzigen, denen diese Zukunftsvision nicht gefällt. "Wir dürfen nicht zulassen, dass wir kollektiv vergessen", mahnt Dr. Elisabeth Niggemann, Generaldirektorin der Deutschen Bibliothek. Unserer Gesellschaft drohe der digitale Alzheimer, wenn nicht schleunigst etwas dagegen unternommen werde. Neben der Aufnahme elektronischer Publikationen beginnen Bibliotheken auch damit, Bücher einzuscannen und so einen elektronischen Fundus an älteren Werken aufzubauen. "Retro-Digitalisierung" heißt das Zauberwort, mit dem kostbare Exemplare geschont und zugleich öffentlich zugänglich gemacht werden sollen. Deutschlands erste Digitalisierungscenter in Göttingen und München haben unter anderem eine Gutenberg-Bibel gescannt und die älteste bekannte Handschrift des Talmud digitalisiert.
Andere Interessen verfolgen US-Firmen wie Google und Amazon. Mit groß angelegten Digitalisierungsprojekten haben sie den Massenmarkt im Visier, um ihre Angebote um digitalisierte Werke zu ergänzen. Am ambitioniertesten ist "Google print": Die Suchmaschine wird künftig auch immer mehr Treffer in Büchern landen und einzelne Seiten oder ganze Bücher online zur Verfügung stellen. Google hat bereits mit dem Scannen der Bestände renommierter Universitätsbibliotheken begonnen. In Stanford und Michigan werden alle 15 Millionen Bände digitalisiert, Harvard und die New York Public Library steuern einen Teil ihres Fundus bei. Von diesem Herbst an ist die Bodleian Library in Oxford als erstes Google-Projekt in Europa dran. Verzögert wird das Projekt durch bislang noch nicht ausgeräumte Copyright-Einwände von Verlagen und Autoren. Roboter scannen ganze Bibliotheken Zum Teil lässt Google noch von Hand scannen, der Großteil der Arbeit wird aber Kopier-Robotern überlassen, die selbstständig ganze Bücher durchblättern und kopieren. Bis 2015 dürften die fünf Bibliotheken erfasst sein. Die Daten müssen aber nicht nur sicher gespeichert, sondern auch so aufbereitet werden, dass sie bei Bedarf tatsächlich gefunden werden. Ohne die so genannten Metadaten, die Autor, Verlag, Erscheinungsdatum, Stichworte und andere Informationen enthalten, wäre dies unmöglich. Ein spektakuläres Beispiel dafür, wie schnell der digitale Alzheimer eintreten kann, liefert die NASA: Wenn die Amerikaner 2018 wieder vier Astronauten zum Mond schicken, ist die erste Mondlandung ein hal bes Jahrhundert zuvor einer von vielen weißen Flecken in der Geschichte der Raumfahrt. Unfreiwillig hat die NASA gezeigt, wie viele Möglichkeiten es gibt, digitale Daten ins Nirwana zu schießen. Mitte der 1990er Jahre wurde bemerkt, dass 1,2 Millionen Magnetbänder mit Daten aus 30 Jahren Raumfahrt nicht mehr benutzbar sind - teilweise wegen mangelnder Zuordnung zu den jeweiligen Missionen. Bis zu 20 Prozent der Informationen, die 1976 während der Viking-Mission zum Mars gesammelt wurden, sind weg, weil Speichermedien unlesbar geworden sind. 1979 wurden die von der Raumsonde "Pioneer" vom Saturn übertragenen Daten auf Magnetbänder archiviert. Obwohl die Daten auf vier verschiedenen Datenträgern gespeichert waren, waren sie zwei Jahrzehnte später nicht mehr lesbar - die NASA hatte für keines der Medien mehr die passenden Lesegeräte.
Jetzt haben die NASA und Google eine Zusammenarbeit vereinbart, in deren Rahmen Google der Weltraumbehörde beim Verwalten großer Datenmengen helfen soll. Google errichtet dazu einen neuen Campus auf dem Gelände des NASA-Forschungszentrums in Silicon Valley, der doppelt so groß ist wie Googles Hauptquartier. Oft sind es nicht ausrangierte Geräte, sondern alte Software, aufgrund derer Daten nicht mehr entziffert werden können. Selbst wenn alle Bits auf dem Datenträger noch lesbar sind, erschließt sich der Inhalt nur mit dem passenden Programm - Nullen und Einsen sind da wie Hieroglyphen. Stephen Abrams ist Direktor des Digital Library Programms an der Harvard Universität. Dass er die Journalistenfrage, wie viele verschiedene Datenformate es überhaupt gebe, nicht einmal annäherungsweise beantworten konnte, hat ihn sichtlich gewurmt. In einem Vortrag am folgenden Tag lieferte er Zahlen aus dem Internet: Eine Seite, die sich rühmt, "jedes Format in der Welt" zu haben, listet 3.189 Extentions auf. "Glauben Sie aber nicht, dass das schon alle sind", warnt Stephen Abrams. Neben exotischen Formaten kommen noch verschiedene Versionen desselben Formats hinzu. Allein das PDF-Format existiert in 60 verschiedenen Varianten, die mitunter Inkompatibilitäten zeigen. "Die Industrie ist interessiert daran, dass alte Daten mit neuen Programmversionen nicht mehr lesbar sind", kommentiert Elmar Mittler, Leiter der Göttinger Bibliothek, das Durcheinander, mit dem das Bemühen der Archivare konterkariert werde. In Harvards Archiv liegen 97 Prozent aller elektronischen Dokumente in neun Formaten vor: AIFF, ASCII, GIF, HTML, JPEG, PDF, TIFF, WAVE und XML. 90 weitere Formate bilden die restlichen 3 Prozent. Um ältere Daten zu lesen, werden verschiedene Strategien eingesetzt. Die einfachsten sind Migration, also die Daten in moderne Formate zu überführen, und Emulation, bei der ältere Rechner auf neuen Maschinen simuliert werden. Aufwendiger ist es, ein "Museum" mit Lesegeräten für veraltete Lochkarten, Disketten und Bänder zu unterhalten. Um das Risiko von Datenverlust zu verkleinern, speichert man auf verschiedenen Medien - oft auf Magnetbändern und zusätzlich auf CDs. Als großes Schwarzes Loch entpuppt sich immer wieder das Internet. So verweist die Deutsche Bibliothek auf ihrer Homepage zu Ergebnissen des Projekts "Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Resourcen" auf die entsprechende Website - doch der Link führt ins Leere: "Pagina niet gevonden / Page not found" antwortet die Königliche Bibliothek der Niederlande auf den Mausklick.
In der Zukunft könnten Geld und Wissen fehlen "Error 404", die Fehlermeldung für nicht gefundene Seiten, kennt John Kunze nur zu gut. Sein Job an der California Digital Library ist die Archivierung von Webseiten. "Einfacher Text ist das einzige Format, das mit heutigen Computern noch genauso lesbar ist wie es vor 30 Jahren war", stellt Kunze fest. Wahrscheinlich werde es auch in 30 Jahren noch lesbar sein, vielleicht sogar als einziges Format aus der heutigen Zeit. In Kalifornien speichert man daher die Originalseiten, zusätzlich wird aber auch eine Sicherung in ASCII-Format angelegt. Sollten die multimedialen Inhalte eines Tages nicht mehr darstellbar sein, bliebe wenigstens der Text erhalten. Eine weitere Möglichkeit ist, gleich ein Rasterbild der Seiten zu erzeugen. Bessere Darstellungs-Tools als heute werden für die aktuellen Formate nie existieren. Für diese "Datenaustrock-nung". gibt es in Zukunft möglicherweise weder das Geld noch das Wissen, um es nachzuholen. Auf Papier gedruckte Dokumente sind deshalb so dauerhaft, weil sie keine komplizierten Geräte benötigen: Licht reicht zur Betrachtung aus. In Zeiten der digitalen Fotografie hat die CD den Negativstreifen ersetzt. Nach wie vor sind Papierbilder jedoch sehr beliebt. Spätestens wenn die Bilder verblassen oder Abzüge sich verfärben, greifen Fotografen zum Speichermedium, um Ersatz zu drucken. Mitunter gibt es dann ein böses Erwachen: Wenn Papierbilder von der Zeit gezeichnet sind, könnte auch die CD bereits Schaden genommen haben. Sie kann zwar nach Herstellerangaben bis zu 100 Jahre halten, trägt aber möglicherweise schon nach dem Brennen den Keim für eine viel schnellere Zerstörung. Nicht ohne Grund kopieren professionelle Archivare ihre CDs alle fünf Jahre um."
Footnote
LINKS www.langzeitarchivierung.de: Kompetenznetzwerk Langzeitarchivierung (Nestor) www.ddb.de/index txt.htm: Die Deutsche Bibliothek www.gutenbergdigital.de: Gutenberg-Bibel digitalisiert whatis.techtarget.com/fileFormatA/0,289933,sid9,00.html: Verzeichnis von Dateiformaten www.archive.org: Internet-Archiv
Form
Elektronische Dokumente
Object
Google book search

Similar documents (content)

  1. Kempf, K.; Brantl, M.; Meiers, T.; Wolf, T.: Auf der Suche nach dem verborgenen Bild : Künstliche Intelligenz erschließt historische Bibliotheksbestände (2021) 0.24
    0.24091943 = sum of:
      0.24091943 = product of:
        0.682605 = sum of:
          0.049459685 = weight(abstract_txt:jahren in 218) [ClassicSimilarity], result of:
            0.049459685 = score(doc=218,freq=1.0), product of:
              0.123369165 = queryWeight, product of:
                1.3099494 = boost
                5.1316223 = idf(docFreq=709, maxDocs=44218)
                0.018352592 = queryNorm
              0.400908 = fieldWeight in 218, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.1316223 = idf(docFreq=709, maxDocs=44218)
                0.078125 = fieldNorm(doc=218)
          0.052288182 = weight(abstract_txt:bibliothek in 218) [ClassicSimilarity], result of:
            0.052288182 = score(doc=218,freq=1.0), product of:
              0.12802893 = queryWeight, product of:
                1.3344591 = boost
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.018352592 = queryNorm
              0.40840912 = fieldWeight in 218, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.078125 = fieldNorm(doc=218)
          0.0566442 = weight(abstract_txt:google in 218) [ClassicSimilarity], result of:
            0.0566442 = score(doc=218,freq=1.0), product of:
              0.13504423 = queryWeight, product of:
                1.3705322 = boost
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.018352592 = queryNorm
              0.41944924 = fieldWeight in 218, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.078125 = fieldNorm(doc=218)
          0.11039928 = weight(abstract_txt:einigen in 218) [ClassicSimilarity], result of:
            0.11039928 = score(doc=218,freq=1.0), product of:
              0.21070908 = queryWeight, product of:
                1.711957 = boost
                6.7064548 = idf(docFreq=146, maxDocs=44218)
                0.018352592 = queryNorm
              0.52394176 = fieldWeight in 218, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.7064548 = idf(docFreq=146, maxDocs=44218)
                0.078125 = fieldNorm(doc=218)
          0.1938617 = weight(abstract_txt:werke in 218) [ClassicSimilarity], result of:
            0.1938617 = score(doc=218,freq=2.0), product of:
              0.24342045 = queryWeight, product of:
                1.8400506 = boost
                7.208251 = idf(docFreq=88, maxDocs=44218)
                0.018352592 = queryNorm
              0.79640675 = fieldWeight in 218, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                7.208251 = idf(docFreq=88, maxDocs=44218)
                0.078125 = fieldNorm(doc=218)
          0.21995197 = weight(abstract_txt:digitalisierten in 218) [ClassicSimilarity], result of:
            0.21995197 = score(doc=218,freq=1.0), product of:
              0.33362427 = queryWeight, product of:
                2.1541703 = boost
                8.43879 = idf(docFreq=25, maxDocs=44218)
                0.018352592 = queryNorm
              0.6592805 = fieldWeight in 218, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.43879 = idf(docFreq=25, maxDocs=44218)
                0.078125 = fieldNorm(doc=218)
        0.3529412 = coord(6/17)
    
  2. Heuer, S.; Tranberg, P.: Mich kriegt ihr nicht : die wichtigsten Schritte zur digitalen Selbstverteidigung (2019) 0.19
    0.19086419 = sum of:
      0.19086419 = product of:
        0.54078186 = sum of:
          0.017602637 = weight(abstract_txt:sind in 5667) [ClassicSimilarity], result of:
            0.017602637 = score(doc=5667,freq=1.0), product of:
              0.07189482 = queryWeight, product of:
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.018352592 = queryNorm
              0.24483876 = fieldWeight in 5667, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.0625 = fieldNorm(doc=5667)
          0.062154025 = weight(abstract_txt:noch in 5667) [ClassicSimilarity], result of:
            0.062154025 = score(doc=5667,freq=4.0), product of:
              0.10501998 = queryWeight, product of:
                1.2086128 = boost
                4.734644 = idf(docFreq=1055, maxDocs=44218)
                0.018352592 = queryNorm
              0.5918305 = fieldWeight in 5667, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.734644 = idf(docFreq=1055, maxDocs=44218)
                0.0625 = fieldNorm(doc=5667)
          0.045315363 = weight(abstract_txt:google in 5667) [ClassicSimilarity], result of:
            0.045315363 = score(doc=5667,freq=1.0), product of:
              0.13504423 = queryWeight, product of:
                1.3705322 = boost
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.018352592 = queryNorm
              0.3355594 = fieldWeight in 5667, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.0625 = fieldNorm(doc=5667)
          0.17846206 = weight(abstract_txt:unsere in 5667) [ClassicSimilarity], result of:
            0.17846206 = score(doc=5667,freq=6.0), product of:
              0.18533577 = queryWeight, product of:
                1.6055759 = boost
                6.2897153 = idf(docFreq=222, maxDocs=44218)
                0.018352592 = queryNorm
              0.9629121 = fieldWeight in 5667, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                6.2897153 = idf(docFreq=222, maxDocs=44218)
                0.0625 = fieldNorm(doc=5667)
          0.08997609 = weight(abstract_txt:lange in 5667) [ClassicSimilarity], result of:
            0.08997609 = score(doc=5667,freq=1.0), product of:
              0.21333583 = queryWeight, product of:
                1.7225947 = boost
                6.7481275 = idf(docFreq=140, maxDocs=44218)
                0.018352592 = queryNorm
              0.42175797 = fieldWeight in 5667, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.7481275 = idf(docFreq=140, maxDocs=44218)
                0.0625 = fieldNorm(doc=5667)
          0.14727172 = weight(abstract_txt:daten in 5667) [ClassicSimilarity], result of:
            0.14727172 = score(doc=5667,freq=3.0), product of:
              0.25883812 = queryWeight, product of:
                2.6833684 = boost
                5.255941 = idf(docFreq=626, maxDocs=44218)
                0.018352592 = queryNorm
              0.5689723 = fieldWeight in 5667, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                5.255941 = idf(docFreq=626, maxDocs=44218)
                0.0625 = fieldNorm(doc=5667)
        0.3529412 = coord(6/17)
    
  3. Funk, V.: Wissen für alle : wie künftige Generationen per Internet mit Archiven arbeiten können: das Scannen alter Bücher nimmt zu (2008) 0.16
    0.16103975 = sum of:
      0.16103975 = product of:
        0.4562793 = sum of:
          0.022003297 = weight(abstract_txt:sind in 1817) [ClassicSimilarity], result of:
            0.022003297 = score(doc=1817,freq=1.0), product of:
              0.07189482 = queryWeight, product of:
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.018352592 = queryNorm
              0.30604845 = fieldWeight in 1817, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.078125 = fieldNorm(doc=1817)
          0.038846266 = weight(abstract_txt:noch in 1817) [ClassicSimilarity], result of:
            0.038846266 = score(doc=1817,freq=1.0), product of:
              0.10501998 = queryWeight, product of:
                1.2086128 = boost
                4.734644 = idf(docFreq=1055, maxDocs=44218)
                0.018352592 = queryNorm
              0.36989406 = fieldWeight in 1817, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.734644 = idf(docFreq=1055, maxDocs=44218)
                0.078125 = fieldNorm(doc=1817)
          0.052288182 = weight(abstract_txt:bibliothek in 1817) [ClassicSimilarity], result of:
            0.052288182 = score(doc=1817,freq=1.0), product of:
              0.12802893 = queryWeight, product of:
                1.3344591 = boost
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.018352592 = queryNorm
              0.40840912 = fieldWeight in 1817, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.078125 = fieldNorm(doc=1817)
          0.0566442 = weight(abstract_txt:google in 1817) [ClassicSimilarity], result of:
            0.0566442 = score(doc=1817,freq=1.0), product of:
              0.13504423 = queryWeight, product of:
                1.3705322 = boost
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.018352592 = queryNorm
              0.41944924 = fieldWeight in 1817, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.078125 = fieldNorm(doc=1817)
          0.11247011 = weight(abstract_txt:lange in 1817) [ClassicSimilarity], result of:
            0.11247011 = score(doc=1817,freq=1.0), product of:
              0.21333583 = queryWeight, product of:
                1.7225947 = boost
                6.7481275 = idf(docFreq=140, maxDocs=44218)
                0.018352592 = queryNorm
              0.5271975 = fieldWeight in 1817, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.7481275 = idf(docFreq=140, maxDocs=44218)
                0.078125 = fieldNorm(doc=1817)
          0.17402723 = weight(abstract_txt:oxford in 1817) [ClassicSimilarity], result of:
            0.17402723 = score(doc=1817,freq=1.0), product of:
              0.28539774 = queryWeight, product of:
                1.9923998 = boost
                7.805067 = idf(docFreq=48, maxDocs=44218)
                0.018352592 = queryNorm
              0.6097709 = fieldWeight in 1817, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.805067 = idf(docFreq=48, maxDocs=44218)
                0.078125 = fieldNorm(doc=1817)
        0.3529412 = coord(6/17)
    
  4. Kuhlen, R.: Macht Google autonom? : Zur Ambivalenz informationeller Autonomie (2005) 0.16
    0.16050154 = sum of:
      0.16050154 = product of:
        0.45475435 = sum of:
          0.026677579 = weight(abstract_txt:sind in 3531) [ClassicSimilarity], result of:
            0.026677579 = score(doc=3531,freq=3.0), product of:
              0.07189482 = queryWeight, product of:
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.018352592 = queryNorm
              0.371064 = fieldWeight in 3531, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3531)
          0.036601726 = weight(abstract_txt:bibliothek in 3531) [ClassicSimilarity], result of:
            0.036601726 = score(doc=3531,freq=1.0), product of:
              0.12802893 = queryWeight, product of:
                1.3344591 = boost
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.018352592 = queryNorm
              0.28588638 = fieldWeight in 3531, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3531)
          0.1315073 = weight(abstract_txt:google in 3531) [ClassicSimilarity], result of:
            0.1315073 = score(doc=3531,freq=11.0), product of:
              0.13504423 = queryWeight, product of:
                1.3705322 = boost
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.018352592 = queryNorm
              0.9738091 = fieldWeight in 3531, product of:
                3.3166249 = tf(freq=11.0), with freq of:
                  11.0 = termFreq=11.0
                5.3689504 = idf(docFreq=559, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3531)
          0.06374972 = weight(abstract_txt:unsere in 3531) [ClassicSimilarity], result of:
            0.06374972 = score(doc=3531,freq=1.0), product of:
              0.18533577 = queryWeight, product of:
                1.6055759 = boost
                6.2897153 = idf(docFreq=222, maxDocs=44218)
                0.018352592 = queryNorm
              0.3439688 = fieldWeight in 3531, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.2897153 = idf(docFreq=222, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3531)
          0.12181906 = weight(abstract_txt:oxford in 3531) [ClassicSimilarity], result of:
            0.12181906 = score(doc=3531,freq=1.0), product of:
              0.28539774 = queryWeight, product of:
                1.9923998 = boost
                7.805067 = idf(docFreq=48, maxDocs=44218)
                0.018352592 = queryNorm
              0.4268396 = fieldWeight in 3531, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.805067 = idf(docFreq=48, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3531)
          0.07439895 = weight(abstract_txt:daten in 3531) [ClassicSimilarity], result of:
            0.07439895 = score(doc=3531,freq=1.0), product of:
              0.25883812 = queryWeight, product of:
                2.6833684 = boost
                5.255941 = idf(docFreq=626, maxDocs=44218)
                0.018352592 = queryNorm
              0.28743428 = fieldWeight in 3531, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.255941 = idf(docFreq=626, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3531)
        0.3529412 = coord(6/17)
    
  5. Ramm, T.: ¬Der Computer ersetzt den Lesesaal : Die Wissenschaftspublikation im digitalen Zeitalter - Verleger und Bibliothekare müssen künftig Informationsvermeidung betreiben (2001) 0.16
    0.1601256 = sum of:
      0.1601256 = product of:
        0.34026688 = sum of:
          0.012446945 = weight(abstract_txt:sind in 5634) [ClassicSimilarity], result of:
            0.012446945 = score(doc=5634,freq=2.0), product of:
              0.07189482 = queryWeight, product of:
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.018352592 = queryNorm
              0.17312714 = fieldWeight in 5634, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9174201 = idf(docFreq=2390, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.058139767 = weight(abstract_txt:noch in 5634) [ClassicSimilarity], result of:
            0.058139767 = score(doc=5634,freq=14.0), product of:
              0.10501998 = queryWeight, product of:
                1.2086128 = boost
                4.734644 = idf(docFreq=1055, maxDocs=44218)
                0.018352592 = queryNorm
              0.55360675 = fieldWeight in 5634, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                4.734644 = idf(docFreq=1055, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.027978621 = weight(abstract_txt:jahren in 5634) [ClassicSimilarity], result of:
            0.027978621 = score(doc=5634,freq=2.0), product of:
              0.123369165 = queryWeight, product of:
                1.3099494 = boost
                5.1316223 = idf(docFreq=709, maxDocs=44218)
                0.018352592 = queryNorm
              0.2267878 = fieldWeight in 5634, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.1316223 = idf(docFreq=709, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.036226314 = weight(abstract_txt:bibliothek in 5634) [ClassicSimilarity], result of:
            0.036226314 = score(doc=5634,freq=3.0), product of:
              0.12802893 = queryWeight, product of:
                1.3344591 = boost
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.018352592 = queryNorm
              0.28295413 = fieldWeight in 5634, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                5.227637 = idf(docFreq=644, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.04084858 = weight(abstract_txt:doch in 5634) [ClassicSimilarity], result of:
            0.04084858 = score(doc=5634,freq=3.0), product of:
              0.13870005 = queryWeight, product of:
                1.3889593 = boost
                5.4411373 = idf(docFreq=520, maxDocs=44218)
                0.018352592 = queryNorm
              0.2945102 = fieldWeight in 5634, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                5.4411373 = idf(docFreq=520, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.04456829 = weight(abstract_txt:überhaupt in 5634) [ClassicSimilarity], result of:
            0.04456829 = score(doc=5634,freq=1.0), product of:
              0.21200676 = queryWeight, product of:
                1.7172205 = boost
                6.727074 = idf(docFreq=143, maxDocs=44218)
                0.018352592 = queryNorm
              0.21022107 = fieldWeight in 5634, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.727074 = idf(docFreq=143, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.077544674 = weight(abstract_txt:werke in 5634) [ClassicSimilarity], result of:
            0.077544674 = score(doc=5634,freq=2.0), product of:
              0.24342045 = queryWeight, product of:
                1.8400506 = boost
                7.208251 = idf(docFreq=88, maxDocs=44218)
                0.018352592 = queryNorm
              0.3185627 = fieldWeight in 5634, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                7.208251 = idf(docFreq=88, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
          0.042513683 = weight(abstract_txt:daten in 5634) [ClassicSimilarity], result of:
            0.042513683 = score(doc=5634,freq=1.0), product of:
              0.25883812 = queryWeight, product of:
                2.6833684 = boost
                5.255941 = idf(docFreq=626, maxDocs=44218)
                0.018352592 = queryNorm
              0.16424815 = fieldWeight in 5634, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.255941 = idf(docFreq=626, maxDocs=44218)
                0.03125 = fieldNorm(doc=5634)
        0.47058824 = coord(8/17)