Search (18 results, page 1 of 1)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.05
    0.053968668 = product of:
      0.107937336 = sum of:
        0.107937336 = product of:
          0.21587467 = sum of:
            0.21587467 = weight(_text_:500 in 2434) [ClassicSimilarity], result of:
              0.21587467 = score(doc=2434,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.7019385 = fieldWeight in 2434, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
    Source
    http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630
  2. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.05
    0.051931378 = product of:
      0.103862755 = sum of:
        0.103862755 = product of:
          0.20772551 = sum of:
            0.20772551 = weight(_text_:500 in 1159) [ClassicSimilarity], result of:
              0.20772551 = score(doc=1159,freq=2.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.67544067 = fieldWeight in 1159, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1159)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Unter: http://www.inf.uni-konstanz.de/~griesbau/texte.html elektronisch als Volltext (PDF 500 KB), Präsentation (PDF 460 KB)
  3. Talbot, D.: Durchblick im Infodschungel (2009) 0.03
    0.026984334 = product of:
      0.053968668 = sum of:
        0.053968668 = product of:
          0.107937336 = sum of:
            0.107937336 = weight(_text_:500 in 2865) [ClassicSimilarity], result of:
              0.107937336 = score(doc=2865,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.35096925 = fieldWeight in 2865, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
    Footnote
    Vgl. auch: http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630.
  4. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.02
    0.020447336 = product of:
      0.040894672 = sum of:
        0.040894672 = product of:
          0.081789345 = sum of:
            0.081789345 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.081789345 = score(doc=6888,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26.12.2011 12:30:22
  5. Poggendorff, J.C.: Biographisch-literarisches Handwörterbuch der exakten Naturwissenschaften (2000) 0.02
    0.017039448 = product of:
      0.034078896 = sum of:
        0.034078896 = product of:
          0.06815779 = sum of:
            0.06815779 = weight(_text_:22 in 6882) [ClassicSimilarity], result of:
              0.06815779 = score(doc=6882,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.38690117 = fieldWeight in 6882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6882)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 4.1996 15:41:22
  6. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.017039448 = product of:
      0.034078896 = sum of:
        0.034078896 = product of:
          0.06815779 = sum of:
            0.06815779 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.06815779 = score(doc=611,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 12:54:24
  7. Grimm, J.; Grimm, W.: Deutsches Wörterbuch - Der digitale Grimm : Elektronische Ausgabe der Erstbearbeitung (2004) 0.02
    0.017039448 = product of:
      0.034078896 = sum of:
        0.034078896 = product of:
          0.06815779 = sum of:
            0.06815779 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.06815779 = score(doc=1203,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.38690117 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2004 9:54:37
  8. Henrich, A.: Information Retrieval : Grundlagen, Modelle und Anwendungen (2008) 0.01
    0.013631558 = product of:
      0.027263116 = sum of:
        0.027263116 = product of:
          0.054526232 = sum of:
            0.054526232 = weight(_text_:22 in 1525) [ClassicSimilarity], result of:
              0.054526232 = score(doc=1525,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.30952093 = fieldWeight in 1525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1525)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2015 21:23:08
  9. Brockhaus Enzyklopädie Digital (2005) 0.01
    0.013631558 = product of:
      0.027263116 = sum of:
        0.027263116 = product of:
          0.054526232 = sum of:
            0.054526232 = weight(_text_:22 in 3481) [ClassicSimilarity], result of:
              0.054526232 = score(doc=3481,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.30952093 = fieldWeight in 3481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3481)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Komplette Textsubstanz aller 30 Bände + Zusatz- und Quellentexte mit nahezu demselben Umfang wie die Brockhaus Enzyklopädie Umfassende Recherchemöglichkeiten, einschließlich natürlichsprachlicher Suchhilfe Frei dreh- und zoombarer 3-D-Globus mit mehr als 2 Millionen geografischen Karteneinträgen 25000 Bilder und Zugang zur Bilddatenbank der dpa mit mehr als 2 Millionen Bildern 280 Videos, 140 Animationen, 6000 Audios, 22 000 kommentierte Weblinks u.v. m. Zugriff auf die Brockhaus Enzyklopädie Online (auch per minibrowserfähigem PDA, Smartphone oder Pocket-PC*), kostenlos bis 31.12.2010 1 USB-Memory-Stick in Docking-Station Für Windows
  10. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.01
    0.011927613 = product of:
      0.023855226 = sum of:
        0.023855226 = product of:
          0.047710452 = sum of:
            0.047710452 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.047710452 = score(doc=6122,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
  11. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.011927613 = product of:
      0.023855226 = sum of:
        0.023855226 = product of:
          0.047710452 = sum of:
            0.047710452 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.047710452 = score(doc=4324,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11. 2.2011 18:22:25
  12. Schröder, B.: Geschichtsverdrehungen (2003) 0.01
    0.010223668 = product of:
      0.020447336 = sum of:
        0.020447336 = product of:
          0.040894672 = sum of:
            0.040894672 = weight(_text_:22 in 1373) [ClassicSimilarity], result of:
              0.040894672 = score(doc=1373,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.23214069 = fieldWeight in 1373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1373)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    24. 2.2003 14:22:57
  13. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.01
    0.010223668 = product of:
      0.020447336 = sum of:
        0.020447336 = product of:
          0.040894672 = sum of:
            0.040894672 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.040894672 = score(doc=3397,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers
  14. P.M. Enzyklopädie 2006 (2005) 0.01
    0.010223668 = product of:
      0.020447336 = sum of:
        0.020447336 = product of:
          0.040894672 = sum of:
            0.040894672 = weight(_text_:22 in 4960) [ClassicSimilarity], result of:
              0.040894672 = score(doc=4960,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.23214069 = fieldWeight in 4960, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4960)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 3.2006 15:03:22
  15. ws: ¬Das Große Wissen.de Lexikon 2004 (2003) 0.01
    0.006815779 = product of:
      0.013631558 = sum of:
        0.013631558 = product of:
          0.027263116 = sum of:
            0.027263116 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.027263116 = score(doc=1079,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.15476047 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 3.2004 12:58:22
  16. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.01
    0.006815779 = product of:
      0.013631558 = sum of:
        0.013631558 = product of:
          0.027263116 = sum of:
            0.027263116 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.027263116 = score(doc=3284,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2010 14:41:24
  17. cis: Nationalbibliothek will das deutsche Internet kopieren (2008) 0.01
    0.0059638065 = product of:
      0.011927613 = sum of:
        0.011927613 = product of:
          0.023855226 = sum of:
            0.023855226 = weight(_text_:22 in 4609) [ClassicSimilarity], result of:
              0.023855226 = score(doc=4609,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.1354154 = fieldWeight in 4609, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4609)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    24.10.2008 14:19:22
  18. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.01
    0.005111834 = product of:
      0.010223668 = sum of:
        0.010223668 = product of:
          0.020447336 = sum of:
            0.020447336 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.020447336 = score(doc=5988,freq=2.0), product of:
                0.17616332 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050306078 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2006 17:22:54