Document (#26554)

Author
Jünger, G.
Title
¬Ein neues Universum
Source
Tageszeitung. Nr.xxx vom 17./18.4.2003, S.14
Year
2003
Abstract
Autorenrechte statt Geschäften der Medienkonzerne: Das Wolrd Wide Web von heute bleibt weit hinter den Möglichkeiten zurück, die das System 'Xanadu' schon vor 40 Jahren entworfen hatte
Content
Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
- Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
- Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
- Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
- Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
Footnote
Mit einer Karte der Internet-Datenströme nach: mappa.mundi.net/maps/maps_020
Theme
Internet
Hypertext
Object
Xanadu
Memex

Similar documents (content)

  1. Carlin, S.A.: Schlagwortvergabe durch Nutzende (Tagging) als Hilfsmittel zur Suche im Web : Ansatz, Modelle, Realisierungen (2006) 0.22
    0.21668215 = sum of:
      0.21668215 = product of:
        0.54170537 = sum of:
          0.042324074 = weight(abstract_txt:wide in 2476) [ClassicSimilarity], result of:
            0.042324074 = score(doc=2476,freq=1.0), product of:
              0.13904265 = queryWeight, product of:
                1.444216 = boost
                4.870342 = idf(docFreq=921, maxDocs=44218)
                0.019767713 = queryNorm
              0.30439636 = fieldWeight in 2476, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.870342 = idf(docFreq=921, maxDocs=44218)
                0.0625 = fieldNorm(doc=2476)
          0.058218814 = weight(abstract_txt:heute in 2476) [ClassicSimilarity], result of:
            0.058218814 = score(doc=2476,freq=1.0), product of:
              0.17197499 = queryWeight, product of:
                1.6061673 = boost
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.019767713 = queryNorm
              0.33853072 = fieldWeight in 2476, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.0625 = fieldNorm(doc=2476)
          0.05952209 = weight(abstract_txt:schon in 2476) [ClassicSimilarity], result of:
            0.05952209 = score(doc=2476,freq=1.0), product of:
              0.17453203 = queryWeight, product of:
                1.618064 = boost
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.019767713 = queryNorm
              0.3410382 = fieldWeight in 2476, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.0625 = fieldNorm(doc=2476)
          0.116301455 = weight(abstract_txt:bleibt in 2476) [ClassicSimilarity], result of:
            0.116301455 = score(doc=2476,freq=1.0), product of:
              0.2727804 = queryWeight, product of:
                2.0228548 = boost
                6.82169 = idf(docFreq=130, maxDocs=44218)
                0.019767713 = queryNorm
              0.42635563 = fieldWeight in 2476, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.82169 = idf(docFreq=130, maxDocs=44218)
                0.0625 = fieldNorm(doc=2476)
          0.13122256 = weight(abstract_txt:zurück in 2476) [ClassicSimilarity], result of:
            0.13122256 = score(doc=2476,freq=1.0), product of:
              0.29563922 = queryWeight, product of:
                2.105907 = boost
                7.1017675 = idf(docFreq=98, maxDocs=44218)
                0.019767713 = queryNorm
              0.44386047 = fieldWeight in 2476, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.1017675 = idf(docFreq=98, maxDocs=44218)
                0.0625 = fieldNorm(doc=2476)
          0.13411635 = weight(abstract_txt:hinter in 2476) [ClassicSimilarity], result of:
            0.13411635 = score(doc=2476,freq=1.0), product of:
              0.2999698 = queryWeight, product of:
                2.1212747 = boost
                7.1535926 = idf(docFreq=93, maxDocs=44218)
                0.019767713 = queryNorm
              0.44709954 = fieldWeight in 2476, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.1535926 = idf(docFreq=93, maxDocs=44218)
                0.0625 = fieldNorm(doc=2476)
        0.4 = coord(6/15)
    
  2. Schiffhauer, N.: Microsofts Encarta ist eine zuverlässige Enzyklopädie auf CD-ROM - Die Suchfunktionen sind noch verbesserungswürdig : ¬Ein Suchspiel mit 14 Millionen Wörtern (2001) 0.17
    0.17488174 = sum of:
      0.17488174 = product of:
        0.32790324 = sum of:
          0.021162037 = weight(abstract_txt:wide in 5683) [ClassicSimilarity], result of:
            0.021162037 = score(doc=5683,freq=1.0), product of:
              0.13904265 = queryWeight, product of:
                1.444216 = boost
                4.870342 = idf(docFreq=921, maxDocs=44218)
                0.019767713 = queryNorm
              0.15219818 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.870342 = idf(docFreq=921, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.029109407 = weight(abstract_txt:heute in 5683) [ClassicSimilarity], result of:
            0.029109407 = score(doc=5683,freq=1.0), product of:
              0.17197499 = queryWeight, product of:
                1.6061673 = boost
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.019767713 = queryNorm
              0.16926536 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.029761044 = weight(abstract_txt:schon in 5683) [ClassicSimilarity], result of:
            0.029761044 = score(doc=5683,freq=1.0), product of:
              0.17453203 = queryWeight, product of:
                1.618064 = boost
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.019767713 = queryNorm
              0.1705191 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.043995075 = weight(abstract_txt:möglichkeiten in 5683) [ClassicSimilarity], result of:
            0.043995075 = score(doc=5683,freq=2.0), product of:
              0.17976387 = queryWeight, product of:
                1.6421368 = boost
                5.5377917 = idf(docFreq=472, maxDocs=44218)
                0.019767713 = queryNorm
              0.24473813 = fieldWeight in 5683, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.5377917 = idf(docFreq=472, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.045289874 = weight(abstract_txt:weit in 5683) [ClassicSimilarity], result of:
            0.045289874 = score(doc=5683,freq=1.0), product of:
              0.23091055 = queryWeight, product of:
                1.8611442 = boost
                6.2763524 = idf(docFreq=225, maxDocs=44218)
                0.019767713 = queryNorm
              0.19613601 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.2763524 = idf(docFreq=225, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.04648125 = weight(abstract_txt:statt in 5683) [ClassicSimilarity], result of:
            0.04648125 = score(doc=5683,freq=1.0), product of:
              0.2349425 = queryWeight, product of:
                1.8773227 = boost
                6.330911 = idf(docFreq=213, maxDocs=44218)
                0.019767713 = queryNorm
              0.19784097 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.330911 = idf(docFreq=213, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.05395382 = weight(abstract_txt:hatte in 5683) [ClassicSimilarity], result of:
            0.05395382 = score(doc=5683,freq=1.0), product of:
              0.2594923 = queryWeight, product of:
                1.9729695 = boost
                6.653462 = idf(docFreq=154, maxDocs=44218)
                0.019767713 = queryNorm
              0.20792069 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.653462 = idf(docFreq=154, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
          0.058150727 = weight(abstract_txt:bleibt in 5683) [ClassicSimilarity], result of:
            0.058150727 = score(doc=5683,freq=1.0), product of:
              0.2727804 = queryWeight, product of:
                2.0228548 = boost
                6.82169 = idf(docFreq=130, maxDocs=44218)
                0.019767713 = queryNorm
              0.21317782 = fieldWeight in 5683, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.82169 = idf(docFreq=130, maxDocs=44218)
                0.03125 = fieldNorm(doc=5683)
        0.53333336 = coord(8/15)
    
  3. Quisquater, J.J.; Desvignes, J.-L..: Wie sicher ist die Chipkarte (2017) 0.16
    0.16270497 = sum of:
      0.16270497 = product of:
        0.81352484 = sum of:
          0.28816843 = weight(abstract_txt:heute in 3456) [ClassicSimilarity], result of:
            0.28816843 = score(doc=3456,freq=2.0), product of:
              0.17197499 = queryWeight, product of:
                1.6061673 = boost
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.019767713 = queryNorm
              1.6756415 = fieldWeight in 3456, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.21875 = fieldNorm(doc=3456)
          0.20832731 = weight(abstract_txt:schon in 3456) [ClassicSimilarity], result of:
            0.20832731 = score(doc=3456,freq=1.0), product of:
              0.17453203 = queryWeight, product of:
                1.618064 = boost
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.019767713 = queryNorm
              1.1936337 = fieldWeight in 3456, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.21875 = fieldNorm(doc=3456)
          0.31702912 = weight(abstract_txt:weit in 3456) [ClassicSimilarity], result of:
            0.31702912 = score(doc=3456,freq=1.0), product of:
              0.23091055 = queryWeight, product of:
                1.8611442 = boost
                6.2763524 = idf(docFreq=225, maxDocs=44218)
                0.019767713 = queryNorm
              1.3729521 = fieldWeight in 3456, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.2763524 = idf(docFreq=225, maxDocs=44218)
                0.21875 = fieldNorm(doc=3456)
        0.2 = coord(3/15)
    
  4. Holzmann, G.J.; Pehrson, B.: Optische Telegraphen und die ersten Informationsnetze (1994) 0.15
    0.15480569 = sum of:
      0.15480569 = product of:
        0.7740284 = sum of:
          0.17856626 = weight(abstract_txt:schon in 7146) [ClassicSimilarity], result of:
            0.17856626 = score(doc=7146,freq=1.0), product of:
              0.17453203 = queryWeight, product of:
                1.618064 = boost
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.019767713 = queryNorm
              1.0231146 = fieldWeight in 7146, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.456611 = idf(docFreq=512, maxDocs=44218)
                0.1875 = fieldNorm(doc=7146)
          0.27173927 = weight(abstract_txt:weit in 7146) [ClassicSimilarity], result of:
            0.27173927 = score(doc=7146,freq=1.0), product of:
              0.23091055 = queryWeight, product of:
                1.8611442 = boost
                6.2763524 = idf(docFreq=225, maxDocs=44218)
                0.019767713 = queryNorm
              1.1768161 = fieldWeight in 7146, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.2763524 = idf(docFreq=225, maxDocs=44218)
                0.1875 = fieldNorm(doc=7146)
          0.32372293 = weight(abstract_txt:hatte in 7146) [ClassicSimilarity], result of:
            0.32372293 = score(doc=7146,freq=1.0), product of:
              0.2594923 = queryWeight, product of:
                1.9729695 = boost
                6.653462 = idf(docFreq=154, maxDocs=44218)
                0.019767713 = queryNorm
              1.2475241 = fieldWeight in 7146, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.653462 = idf(docFreq=154, maxDocs=44218)
                0.1875 = fieldNorm(doc=7146)
        0.2 = coord(3/15)
    
  5. Thesaurus der exakten Wissenschaften : Unter Mitarb. von Charles Auffray u.a (2001) 0.15
    0.15026493 = sum of:
      0.15026493 = product of:
        0.37566233 = sum of:
          0.04375908 = weight(abstract_txt:jahren in 2414) [ClassicSimilarity], result of:
            0.04375908 = score(doc=2414,freq=2.0), product of:
              0.15436132 = queryWeight, product of:
                1.5216942 = boost
                5.1316223 = idf(docFreq=709, maxDocs=44218)
                0.019767713 = queryNorm
              0.28348476 = fieldWeight in 2414, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.1316223 = idf(docFreq=709, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2414)
          0.063023716 = weight(abstract_txt:heute in 2414) [ClassicSimilarity], result of:
            0.063023716 = score(doc=2414,freq=3.0), product of:
              0.17197499 = queryWeight, product of:
                1.6061673 = boost
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.019767713 = queryNorm
              0.36647025 = fieldWeight in 2414, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                5.4164915 = idf(docFreq=533, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2414)
          0.038886517 = weight(abstract_txt:möglichkeiten in 2414) [ClassicSimilarity], result of:
            0.038886517 = score(doc=2414,freq=1.0), product of:
              0.17976387 = queryWeight, product of:
                1.6421368 = boost
                5.5377917 = idf(docFreq=472, maxDocs=44218)
                0.019767713 = queryNorm
              0.21632 = fieldWeight in 2414, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.5377917 = idf(docFreq=472, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2414)
          0.06415619 = weight(abstract_txt:neues in 2414) [ClassicSimilarity], result of:
            0.06415619 = score(doc=2414,freq=1.0), product of:
              0.25099325 = queryWeight, product of:
                1.9403906 = boost
                6.543596 = idf(docFreq=172, maxDocs=44218)
                0.019767713 = queryNorm
              0.2556092 = fieldWeight in 2414, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.543596 = idf(docFreq=172, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2414)
          0.082014106 = weight(abstract_txt:zurück in 2414) [ClassicSimilarity], result of:
            0.082014106 = score(doc=2414,freq=1.0), product of:
              0.29563922 = queryWeight, product of:
                2.105907 = boost
                7.1017675 = idf(docFreq=98, maxDocs=44218)
                0.019767713 = queryNorm
              0.2774128 = fieldWeight in 2414, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.1017675 = idf(docFreq=98, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2414)
          0.08382272 = weight(abstract_txt:hinter in 2414) [ClassicSimilarity], result of:
            0.08382272 = score(doc=2414,freq=1.0), product of:
              0.2999698 = queryWeight, product of:
                2.1212747 = boost
                7.1535926 = idf(docFreq=93, maxDocs=44218)
                0.019767713 = queryNorm
              0.2794372 = fieldWeight in 2414, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.1535926 = idf(docFreq=93, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2414)
        0.4 = coord(6/15)