Search (301 results, page 1 of 16)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  • × type_ss:"a"
  1. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.06
    0.06076293 = product of:
      0.14178017 = sum of:
        0.056904804 = weight(_text_:bibliothek in 1770) [ClassicSimilarity], result of:
          0.056904804 = score(doc=1770,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.36288103 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.02942481 = weight(_text_:internet in 1770) [ClassicSimilarity], result of:
          0.02942481 = score(doc=1770,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.2609436 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.05545055 = product of:
          0.08317582 = sum of:
            0.04177581 = weight(_text_:29 in 1770) [ClassicSimilarity], result of:
              0.04177581 = score(doc=1770,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.31092256 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
            0.041400008 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.041400008 = score(doc=1770,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.6666667 = coord(2/3)
      0.42857143 = coord(3/7)
    
    Date
    23.10.1996 17:26:29
    22. 3.2008 14:04:11
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  2. Koch, T.: Suchmaschinen im Internet (1996) 0.05
    0.04623003 = product of:
      0.1618051 = sum of:
        0.085357204 = weight(_text_:bibliothek in 5454) [ClassicSimilarity], result of:
          0.085357204 = score(doc=5454,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.54432154 = fieldWeight in 5454, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.09375 = fieldNorm(doc=5454)
        0.0764479 = weight(_text_:internet in 5454) [ClassicSimilarity], result of:
          0.0764479 = score(doc=5454,freq=6.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.67795134 = fieldWeight in 5454, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=5454)
      0.2857143 = coord(2/7)
    
    Abstract
    Darstellung der verschiedenen search engines zur sachlichen Suche im Internet
    Source
    Weiter auf dem Weg zur virtuellen Bibliothek! Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996. 2., erw. Aufl
  3. Bertelmann, R.; Rusch-Feja, D.: Informationsretrieval im Internet : Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote (1997) 0.04
    0.03882786 = product of:
      0.09059834 = sum of:
        0.027029924 = weight(_text_:retrieval in 217) [ClassicSimilarity], result of:
          0.027029924 = score(doc=217,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.23394634 = fieldWeight in 217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=217)
        0.051493417 = weight(_text_:internet in 217) [ClassicSimilarity], result of:
          0.051493417 = score(doc=217,freq=8.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.45665127 = fieldWeight in 217, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=217)
        0.012075002 = product of:
          0.036225006 = sum of:
            0.036225006 = weight(_text_:22 in 217) [ClassicSimilarity], result of:
              0.036225006 = score(doc=217,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.2708308 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=217)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Das gezielte Suchen im Internet findet in erster Linie mit Hilfe der Suchmaschinen statt. Daneben gibt es aber bereits eine Fülle von strukturierten Informationsangeboten, aufbereiteten Listen und Sammelstellen, die als Clearinghouse, Subject Gateway, Subject Tree oder Resource Pages bezeichnet werden. Solche intellektuell erstellten Übersichten geben in der Regel bereits Hinweise zu Inhalt und fachlichem Niveau der Quelle. Da die Art und Weise der Aufbereitung bei den Sammelstellen sehr unterschiedlich funktioniert, ist die Kenntnis ihrer Erschließungskriterien für ein erfolgreiches Retrieval unverzichtbar
    Date
    9. 7.2000 11:31:22
    Source
    Internet: Grundlagen, Technik, Anwendungen. Hrsg.: M. Rothe u.a
    Theme
    Internet
  4. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.04
    0.03800565 = product of:
      0.13301978 = sum of:
        0.063706584 = weight(_text_:internet in 6566) [ClassicSimilarity], result of:
          0.063706584 = score(doc=6566,freq=6.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.56495947 = fieldWeight in 6566, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.06931318 = product of:
          0.103969775 = sum of:
            0.052219763 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.052219763 = score(doc=6566,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.05175001 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.05175001 = score(doc=6566,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.6666667 = coord(2/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Der deutsche Konkurrent, der Lieferant in Fernost oder der neue Partner für Nordamerika - sie alle sind vielleicht schon im Internet vertreten. Das Wissen um ihre Existenz und die Kenntnis ihrer Internet-Adresse ist wichtig, vielleicht sogar entscheidend im Wettbewerb. Aber wie finden?
    Content
    Beitrag zu den search engines des Internet
    Date
    22. 2.1997 19:50:29
  5. Altmann, O.; Pöhl, S.: Information Retrieval im Internet : bekannte Suchdienste und ihre Eigenschaften (1997) 0.04
    0.03698756 = product of:
      0.08630431 = sum of:
        0.030891342 = weight(_text_:retrieval in 205) [ClassicSimilarity], result of:
          0.030891342 = score(doc=205,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.26736724 = fieldWeight in 205, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=205)
        0.041612964 = weight(_text_:internet in 205) [ClassicSimilarity], result of:
          0.041612964 = score(doc=205,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.36902997 = fieldWeight in 205, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=205)
        0.013800003 = product of:
          0.041400008 = sum of:
            0.041400008 = weight(_text_:22 in 205) [ClassicSimilarity], result of:
              0.041400008 = score(doc=205,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.30952093 = fieldWeight in 205, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=205)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Pages
    S.18-22
    Source
    Internet: Grundlagen, Technik, Anwendungen. Hrsg.: M. Rothe u.a
  6. Sauer, D.: Alles schneller finden (2001) 0.03
    0.034432657 = product of:
      0.12051429 = sum of:
        0.036781013 = weight(_text_:internet in 6835) [ClassicSimilarity], result of:
          0.036781013 = score(doc=6835,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.3261795 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=6835)
        0.083733276 = product of:
          0.1255999 = sum of:
            0.073849894 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.073849894 = score(doc=6835,freq=4.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.05175001 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.05175001 = score(doc=6835,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.2857143 = coord(2/7)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
    Theme
    Internet
  7. Peters, I.: Folksonomies und kollaborative Informationsdienste : eine Alternative zur Websuche? (2011) 0.03
    0.031817753 = product of:
      0.07424142 = sum of:
        0.030891342 = weight(_text_:retrieval in 343) [ClassicSimilarity], result of:
          0.030891342 = score(doc=343,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.26736724 = fieldWeight in 343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
        0.02942481 = weight(_text_:internet in 343) [ClassicSimilarity], result of:
          0.02942481 = score(doc=343,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.2609436 = fieldWeight in 343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
        0.013925271 = product of:
          0.04177581 = sum of:
            0.04177581 = weight(_text_:29 in 343) [ClassicSimilarity], result of:
              0.04177581 = score(doc=343,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.31092256 = fieldWeight in 343, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=343)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Folksonomies ermöglichen den Nutzern in Kollaborativen Informationsdiensten den Zugang zu verschiedenartigen Informationsressourcen. In welchen Fällen beide Bestandteile des Web 2.0 am besten für das Information Retrieval geeignet sind und wo sie die Websuche ggf. ersetzen können, wird in diesem Beitrag diskutiert. Dazu erfolgt eine detaillierte Betrachtung der Reichweite von Social-Bookmarking-Systemen und Sharing-Systemen sowie der Retrievaleffektivität von Folksonomies innerhalb von Kollaborativen Informationsdiensten.
    Pages
    S.29-53
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  8. Place, E.: International collaboration on Internet subject gateways (2000) 0.03
    0.029594792 = product of:
      0.069054514 = sum of:
        0.019307088 = weight(_text_:retrieval in 4584) [ClassicSimilarity], result of:
          0.019307088 = score(doc=4584,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.16710453 = fieldWeight in 4584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4584)
        0.04112242 = weight(_text_:internet in 4584) [ClassicSimilarity], result of:
          0.04112242 = score(doc=4584,freq=10.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.36467975 = fieldWeight in 4584, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4584)
        0.008625003 = product of:
          0.025875006 = sum of:
            0.025875006 = weight(_text_:22 in 4584) [ClassicSimilarity], result of:
              0.025875006 = score(doc=4584,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.19345059 = fieldWeight in 4584, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4584)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Eine ganze Anzahl von Bibliotheken in Europa befaßt sich mit der Entwicklung von Internet Subject Gateways - einer Serviceleistung, die den Nutzern helfen soll, qualitativ hochwertige Internetquellen zu finden. Subject Gateways wie SOSIG (The Social Science Information Gateway) sind bereits seit einigen Jahren im Internet verfügbar und stellen eine Alternative zu Internet-Suchmaschinen wie AltaVista und Verzeichnissen wie Yahoo dar. Bezeichnenderweise stützen sich Subject Gateways auf die Fertigkeiten, Verfahrensweisen und Standards der internationalen Bibliothekswelt und wenden diese auf Informationen aus dem Internet an. Dieses Referat will daher betonen, daß Bibliothekare/innen idealerweise eine vorherrschende Rolle im Aufbau von Suchservices für Internetquellen spielen und daß Information Gateways eine Möglichkeit dafür darstellen. Es wird einige der Subject Gateway-Initiativen in Europa umreißen und die Werkzeuge und Technologien beschreiben, die vom Projekt DESIRE entwickelt wurden, um die Entwicklung neuer Gateways in anderen Ländern zu unterstützen. Es wird auch erörtert, wie IMesh, eine Gruppe für Gateways aus der ganzen Welt eine internationale Strategie für Gateways anstrebt und versucht, Standards zur Umsetzung dieses Projekts zu entwickeln
    Date
    22. 6.2002 19:35:35
    Theme
    Klassifikationssysteme im Online-Retrieval
  9. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.03
    0.027793558 = product of:
      0.064851634 = sum of:
        0.027029924 = weight(_text_:retrieval in 3276) [ClassicSimilarity], result of:
          0.027029924 = score(doc=3276,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.23394634 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.025746709 = weight(_text_:internet in 3276) [ClassicSimilarity], result of:
          0.025746709 = score(doc=3276,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.22832564 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.012075002 = product of:
          0.036225006 = sum of:
            0.036225006 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.036225006 = score(doc=3276,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
  10. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.03
    0.027730523 = product of:
      0.06470455 = sum of:
        0.015445671 = weight(_text_:retrieval in 3023) [ClassicSimilarity], result of:
          0.015445671 = score(doc=3023,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.13368362 = fieldWeight in 3023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.028452402 = weight(_text_:bibliothek in 3023) [ClassicSimilarity], result of:
          0.028452402 = score(doc=3023,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.18144052 = fieldWeight in 3023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.020806482 = weight(_text_:internet in 3023) [ClassicSimilarity], result of:
          0.020806482 = score(doc=3023,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.18451498 = fieldWeight in 3023, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.42857143 = coord(3/7)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
  11. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.03
    0.02658378 = product of:
      0.062028818 = sum of:
        0.024895852 = weight(_text_:bibliothek in 1333) [ClassicSimilarity], result of:
          0.024895852 = score(doc=1333,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.15876046 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.012873354 = weight(_text_:internet in 1333) [ClassicSimilarity], result of:
          0.012873354 = score(doc=1333,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.11416282 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.024259612 = product of:
          0.036389418 = sum of:
            0.018276917 = weight(_text_:29 in 1333) [ClassicSimilarity], result of:
              0.018276917 = score(doc=1333,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.13602862 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
            0.018112503 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.018112503 = score(doc=1333,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.6666667 = coord(2/3)
      0.42857143 = coord(3/7)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Date
    5. 1.1997 9:39:22
    6. 2.2009 10:29:08
  12. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.03
    0.026249027 = product of:
      0.06124773 = sum of:
        0.036960755 = weight(_text_:bibliothek in 4318) [ClassicSimilarity], result of:
          0.036960755 = score(doc=4318,freq=6.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.23569816 = fieldWeight in 4318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.019111974 = weight(_text_:internet in 4318) [ClassicSimilarity], result of:
          0.019111974 = score(doc=4318,freq=6.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.16948783 = fieldWeight in 4318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.005175001 = product of:
          0.015525003 = sum of:
            0.015525003 = weight(_text_:22 in 4318) [ClassicSimilarity], result of:
              0.015525003 = score(doc=4318,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.116070345 = fieldWeight in 4318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4318)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
    Date
    3. 5.1997 8:44:22
  13. Höfer, W.: Detektive im Web (1999) 0.03
    0.026198195 = product of:
      0.09169368 = sum of:
        0.062419448 = weight(_text_:internet in 4007) [ClassicSimilarity], result of:
          0.062419448 = score(doc=4007,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.55354494 = fieldWeight in 4007, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=4007)
        0.029274229 = product of:
          0.08782268 = sum of:
            0.08782268 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.08782268 = score(doc=4007,freq=4.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Ohne Altavista, Excite & Co. wären Internet-Surfer aufgeschmissen. Wie die Daten-Spürhunde arbeiten, wie Sie ihre Website anmelden und welche Tools helfen, steht in diesem Suchmaschinen-Special
    Date
    22. 8.1999 20:22:06
    Source
    Internet Professionell. 1999, H.9, S.28-36
  14. Rensman, J.: Blick ins Getriebe (1999) 0.03
    0.026198195 = product of:
      0.09169368 = sum of:
        0.062419448 = weight(_text_:internet in 4009) [ClassicSimilarity], result of:
          0.062419448 = score(doc=4009,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.55354494 = fieldWeight in 4009, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=4009)
        0.029274229 = product of:
          0.08782268 = sum of:
            0.08782268 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.08782268 = score(doc=4009,freq=4.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Der Internet-Surfer bekommt nur die Eingabeaufforderung und das Suchergebnis zu sehen. Hinter der Maske einer Suchmaschine laufen jedoch komplizierte Mechanismen ab
    Date
    22. 8.1999 21:22:59
    Source
    Internet Professionell. 1999, H.9, S.44-47
  15. Stock, W.G.: Verkaufte Suchwörter, verkaufte Links : Retrieval nach Homepages optimiert? (1999) 0.02
    0.023779584 = product of:
      0.08322854 = sum of:
        0.046817202 = weight(_text_:retrieval in 4142) [ClassicSimilarity], result of:
          0.046817202 = score(doc=4142,freq=6.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.40520695 = fieldWeight in 4142, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4142)
        0.036411345 = weight(_text_:internet in 4142) [ClassicSimilarity], result of:
          0.036411345 = score(doc=4142,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.32290122 = fieldWeight in 4142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4142)
      0.2857143 = coord(2/7)
    
    Abstract
    Selten wurde ein Dienst so stark diskutiert wie 'RealNames', da sowohl seine Suchwörter als auch die darauf aufsetzenden Links auf Homepages verkauft werden. Machen wir uns doch nichts vor: Das WWW ist ein kommerzielles Unternehmen, die Dienstleistungen müssen finanziert werden. Und warum soll nicht ein Privatunternehmen mit Inhaltserschließung Gewinne erzielen? RealNames mit seinem 'Internet Keyword System' ist eine interessante Idee, das Retrieval nach Homepages zielgenau durchzuführen. Was bringt RealNames den Nutzern? Wann sollte jemand, der Sites im WWW unterhält, Suchwörter und Links bei RealNames abonnieren (und was kostet das)? Im Oktober 1999 haben wir RealNames genauer angeschaut. Analysiert wurde das gezielte Retrieval nach Homepages bei AltaVista, Fireball und bei RealNames.com
    Theme
    Internet
  16. Hannemann, M.: Online ins Schlaraffenland der Wissenschaft : Literatur-Recherche im Internet ist ein teures Unterfangen ohne Erfolgsgarantie - Doch wer systematisch sucht, gelangt zügig ans Ziel (1999) 0.02
    0.023748416 = product of:
      0.08311945 = sum of:
        0.062419448 = weight(_text_:internet in 3106) [ClassicSimilarity], result of:
          0.062419448 = score(doc=3106,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.55354494 = fieldWeight in 3106, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=3106)
        0.020700004 = product of:
          0.06210001 = sum of:
            0.06210001 = weight(_text_:22 in 3106) [ClassicSimilarity], result of:
              0.06210001 = score(doc=3106,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.46428138 = fieldWeight in 3106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3106)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    3. 5.1997 8:44:22
    Theme
    Internet
  17. Google digitalisiert 15 Millionen Bücher (2005) 0.02
    0.023471573 = product of:
      0.082150504 = sum of:
        0.050297216 = weight(_text_:bibliothek in 3775) [ClassicSimilarity], result of:
          0.050297216 = score(doc=3775,freq=4.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.32074454 = fieldWeight in 3775, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
        0.031853292 = weight(_text_:internet in 3775) [ClassicSimilarity], result of:
          0.031853292 = score(doc=3775,freq=6.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.28247973 = fieldWeight in 3775, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
      0.2857143 = coord(2/7)
    
    Content
    "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
  18. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.02
    0.023460608 = product of:
      0.082112126 = sum of:
        0.032765217 = weight(_text_:retrieval in 3184) [ClassicSimilarity], result of:
          0.032765217 = score(doc=3184,freq=4.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.2835858 = fieldWeight in 3184, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.04934691 = weight(_text_:internet in 3184) [ClassicSimilarity], result of:
          0.04934691 = score(doc=3184,freq=10.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.43761572 = fieldWeight in 3184, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Bewertung von Internet-Dokumenten nach ihrer Qualität wird im Zeitalter verteilten und in großen Mengen vorliegenden Wissens zunehmend an Software delegiert. Dies gilt besonders bei der Suche nach Informationen etwa mit Internet-Suchmaschinen, bei der Qualitätsbewertungssysteme als Filter einsetzbar sind. Die starke Heterogenität der Qua-lität von Internet-Dokumenten lässt hier einen besonderen Mehrwert erwarten. Experimentelle Systeme behandeln verschiedeneAspekte und nutzen unterschiedliche Definitionen von Oualität. Im Einsatz befindliche Systeme greifen zur Zeit auf einzelne und begrenzte Aspekte von Qualität zu. Insbesondere die Analyse der Verlinkungsstruktur des Internets bietet einen Ansatzpunkt für existierende Systeme. Die Komplexität des Qualitätskonzepts und der Dokumente erfordert jedoch auf mehreren Aspekten beruhende Definitionen. Im Projekt AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) werden Oualitätsdefinitionen aus menschlichen Urteilen abgeleitet. Formale Eigenschaften von Internet-Seiten werden automatisch extrahiert. Menschliche Oualitätsurteile unterschiedlichster Art bilden die Grundlage für Verfahren des maschinellen Lernens. So entstehen Klassifikationssysteme, welche die menschlichen Urteile so weit wie möglich simulieren. Diese werden in prototypischen Such- und Filtersystemen integriert.
    Content
    Mit einer Abbildung zu Qualitätsmodellen im Information Retrieval Prozess
  19. Dresler, S.; Grosse, A.G.; Rösner, A.: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel von www.crawler.de (1997) 0.02
    0.02071869 = product of:
      0.07251541 = sum of:
        0.023168506 = weight(_text_:retrieval in 716) [ClassicSimilarity], result of:
          0.023168506 = score(doc=716,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.20052543 = fieldWeight in 716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
        0.04934691 = weight(_text_:internet in 716) [ClassicSimilarity], result of:
          0.04934691 = score(doc=716,freq=10.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.43761572 = fieldWeight in 716, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Datenmenge im WWW, welche in Form von Internet-Seiten über URLs zugänglich ist, wächst derzeit stark an. Um aus dieser Menge effizient eine Liste von URLs zu einem Thema oder Stichwort zu extrahieren, sind leistungsfähige Internet-Suchmaschinen mit einem möglichst umfassenden und aktuellen Datenbestand notwendig. Diese sind jedoch sowohl in ihren Eigenschaften wie Verarbeitungskapazität und Netzanbindung beschränkt als auch durch administrative Hindernisse wie das Robots Exclusion Agreement. Es ist daher notwendig, neuartige Algorithmen zur Sammlung von Internet-Seiten zu verwenden, welche empirisch gewonnenes Wissen über die Seitenstruktur berücksichtigen. Dieser Bericht präsentiert den aktuellen Stand der Optimierung des Datenbeschaffungsteils der bekannten deutschen Suchmaschine www.crawler.de durch die Integration von Mechanismen, welche die Aktualisierungsrate und die Verzeichnistiefe von Internet-Links berücksichtigen
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  20. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.02
    0.019852543 = product of:
      0.0463226 = sum of:
        0.019307088 = weight(_text_:retrieval in 5773) [ClassicSimilarity], result of:
          0.019307088 = score(doc=5773,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.16710453 = fieldWeight in 5773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.018390507 = weight(_text_:internet in 5773) [ClassicSimilarity], result of:
          0.018390507 = score(doc=5773,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.16308975 = fieldWeight in 5773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.008625003 = product of:
          0.025875006 = sum of:
            0.025875006 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
              0.025875006 = score(doc=5773,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.19345059 = fieldWeight in 5773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5773)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31

Years