Search (661 results, page 1 of 34)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.20
    0.20144102 = product of:
      0.604323 = sum of:
        0.027205575 = product of:
          0.13602787 = sum of:
            0.13602787 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.13602787 = score(doc=2514,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.2 = coord(1/5)
        0.19237247 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19237247 = score(doc=2514,freq=4.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.19237247 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19237247 = score(doc=2514,freq=4.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.19237247 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.19237247 = score(doc=2514,freq=4.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.33333334 = coord(4/12)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.11
    0.10946039 = product of:
      0.21892078 = sum of:
        0.06390124 = weight(_text_:grenzen in 1491) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1491,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.028329367 = weight(_text_:der in 1491) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1491,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1491, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.029818047 = weight(_text_:wissenschaft in 1491) [ClassicSimilarity], result of:
          0.029818047 = score(doc=1491,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.26313335 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.06390124 = weight(_text_:grenzen in 1491) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1491,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.028329367 = weight(_text_:der in 1491) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1491,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1491, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.023207584 = score(doc=1491,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.2 = coord(1/5)
      0.5 = coord(6/12)
    
    Abstract
    Wenn man die Recherche in Suchmaschinen als Vorbereitung einer Entscheidung betrachtet, kommt diesen Suchwerkzeugen aufgrund der Masse der an sie ge­stellten Anfragen eine nicht zu unterschätzende Bedeutung zu. Macht haben Suchmaschinen vor allem dadurch, dass sie entscheiden, was ein Nutzer zu seiner Suchanfrage zu sehen bekommt, verstärkt durch die ­Entscheidung, an welcher Stelle und in welcher Darstellungsform die Ergebnisse angezeigt werden. Im Suchprozess gibt es zahlreiche Stellen, an denen das Design der Suchmaschine die Entscheidung des Nutzers für oder gegen bestimmte Ergebnisse beeinflusst. Zusammen mit der externen Beeinflussung der Suchergebnisse durch sog. Suchmaschinenoptimierung ergibt sich eine Steuerung der Nutzer hin zu bestimmten Ergebnissen und ­Ergebnisformen. Der Artikel zeigt, wo Suchmaschinen Einfluss auf unsere Entscheidungsvorbereitung bzw. Entscheidungsfindung nehmen, an welchen Punkten dem durch einen bewussteren Umgang mit den Suchmaschinen entgegengewirkt werden kann, aber auch wo die Grenzen der eigenen Entscheidungsmöglichkeiten liegen.
    Date
    22. 9.2014 18:54:11
    Source
    Information - Wissenschaft und Praxis. 65(2014) H.4/5, S.231-238
  3. Franke-Maier, M.; Rüter, C.: Discover Sacherschließung! : Was machen suchmaschinenbasierte Systeme mit unseren inhaltlichen Metadaten? (2015) 0.09
    0.08869313 = product of:
      0.2128635 = sum of:
        0.07455145 = weight(_text_:grenzen in 1706) [ClassicSimilarity], result of:
          0.07455145 = score(doc=1706,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.44940484 = fieldWeight in 1706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
        0.02914818 = weight(_text_:der in 1706) [ClassicSimilarity], result of:
          0.02914818 = score(doc=1706,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4570776 = fieldWeight in 1706, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
        0.07455145 = weight(_text_:grenzen in 1706) [ClassicSimilarity], result of:
          0.07455145 = score(doc=1706,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.44940484 = fieldWeight in 1706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
        0.02914818 = weight(_text_:der in 1706) [ClassicSimilarity], result of:
          0.02914818 = score(doc=1706,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4570776 = fieldWeight in 1706, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
        0.005464258 = product of:
          0.02732129 = sum of:
            0.02732129 = weight(_text_:29 in 1706) [ClassicSimilarity], result of:
              0.02732129 = score(doc=1706,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.27205724 = fieldWeight in 1706, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1706)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Discovery Systeme erlauben einen neuen und anderen Zugriff auf verfügbare Ressourcen einer Bibliothek als die traditionellen Online-Kataloge. Daraus ergeben sich Probleme, aber auch Chancen für die Nutzung und Sichtbarkeit der bibliothekarischen Sacherschließung. Der Vortrag gibt einen Einblick in die Funktionalitäten und Funktionsweisen von Discovery Systemen am Beispiel eines großen Players, Primo von ExLibris, sowie die Auswirkungen auf bibliothekarische inhaltliche Metadaten. Es werden Chancen und Grenzen der Technik beleuchtet. Der Vortrag schließt mit der Reflektion der Implikationen für die Arbeit im Fachreferat.
    Content
    Präsentation zur Fortbildungsveranstaltung für Fachreferentinnen und Fachreferenten der Politikwissenschaft und Soziologie, 23.01.2015.
    Date
    2. 3.2015 10:29:44
  4. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.08
    0.075570405 = product of:
      0.22671121 = sum of:
        0.08520166 = weight(_text_:grenzen in 349) [ClassicSimilarity], result of:
          0.08520166 = score(doc=349,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
        0.028153952 = weight(_text_:der in 349) [ClassicSimilarity], result of:
          0.028153952 = score(doc=349,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44148692 = fieldWeight in 349, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
        0.08520166 = weight(_text_:grenzen in 349) [ClassicSimilarity], result of:
          0.08520166 = score(doc=349,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
        0.028153952 = weight(_text_:der in 349) [ClassicSimilarity], result of:
          0.028153952 = score(doc=349,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44148692 = fieldWeight in 349, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
      0.33333334 = coord(4/12)
    
    Abstract
    Die Evaluierung von Suchmaschinen ist von hoher Bedeutung, sowohl wenn es um die Überprüfung der Leistungsfähigkeit selbst entwickelter Systeme geht als auch, um die Qualität der bekannten Suchdienste untereinander zu vergleichen. In diesem Kapitel wird der Standardaufbau von Tests zur Messung der Retrievaleffektivität von Suchmaschinen beschrieben, um darauf aufbauend systematisch die Grenzen dieser Tests aufzuzeigen und erste Lösungsmöglichkeiten zu diskutieren. Es werden Hinweise für die Praxis gegeben, wie sich Retrievaltests mit vertretbarem Aufwand gestalten lassen, die trotzdem zu verwertbaren Ergebnissen führen.
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  5. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.07
    0.07402776 = product of:
      0.17766663 = sum of:
        0.045185003 = weight(_text_:grenzen in 5987) [ClassicSimilarity], result of:
          0.045185003 = score(doc=5987,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.27238047 = fieldWeight in 5987, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
        0.021115463 = weight(_text_:der in 5987) [ClassicSimilarity], result of:
          0.021115463 = score(doc=5987,freq=40.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3311152 = fieldWeight in 5987, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
        0.045185003 = weight(_text_:grenzen in 5987) [ClassicSimilarity], result of:
          0.045185003 = score(doc=5987,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.27238047 = fieldWeight in 5987, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
        0.021115463 = weight(_text_:der in 5987) [ClassicSimilarity], result of:
          0.021115463 = score(doc=5987,freq=40.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3311152 = fieldWeight in 5987, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
        0.04506571 = weight(_text_:fortschritt in 5987) [ClassicSimilarity], result of:
          0.04506571 = score(doc=5987,freq=2.0), product of:
            0.19701613 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.028548526 = queryNorm
            0.2287412 = fieldWeight in 5987, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
      0.41666666 = coord(5/12)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  6. Internet: The editor's choice (2004) 0.07
    0.073563315 = product of:
      0.17655195 = sum of:
        0.07455145 = weight(_text_:grenzen in 2090) [ClassicSimilarity], result of:
          0.07455145 = score(doc=2090,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.44940484 = fieldWeight in 2090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2090)
        0.011016976 = weight(_text_:der in 2090) [ClassicSimilarity], result of:
          0.011016976 = score(doc=2090,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.17275909 = fieldWeight in 2090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2090)
        0.07455145 = weight(_text_:grenzen in 2090) [ClassicSimilarity], result of:
          0.07455145 = score(doc=2090,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.44940484 = fieldWeight in 2090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2090)
        0.011016976 = weight(_text_:der in 2090) [ClassicSimilarity], result of:
          0.011016976 = score(doc=2090,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.17275909 = fieldWeight in 2090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2090)
        0.0054151034 = product of:
          0.027075516 = sum of:
            0.027075516 = weight(_text_:22 in 2090) [ClassicSimilarity], result of:
              0.027075516 = score(doc=2090,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.2708308 = fieldWeight in 2090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2090)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Googeln Sie zuweilen, um wissenschaftliche Publikationen zu finden? Dazu waren bislang recht präzise Suchanfragen nötig. um den hermeneutischen Aufwand, Spreu von Weizen zu trennen, in Grenzen zu halten - Namen alleine reichten etwa nicht. Seit neuestem bietet Google, in Zusammenarbeit rnit Verlagen, unter http://scholar.google.com/ eine auf wissenschaftliche Publikationen spezialisierte Version seiner Suchmaschine an. Das Motto: "Stand an the shoulders of giants." Obwohl noch als "beta" ausgewiesen. fallen erste Tests beeindruckend aus: umfassend und tatsächlich ausschliesslich auf wissenschaftliche Arbeiten beschränkt. Sortiert wird nach einem aus gegenseitiger Zitation gewonnenen Index, ähnlich zu Googles "Page Rank". Wenn sich diese Qualität halten und ausbauen lässt, haben wir die Geburtsstunde eines weiteren wichtigen Instruments wissenschaftlicher Literaturrecherche und -Versorgung erlebt.
    Date
    3. 1.2005 12:03:22
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2004, H.4, S.219
  7. Schneider, N.: ¬Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers (2007) 0.06
    0.061971318 = product of:
      0.18591395 = sum of:
        0.026985971 = weight(_text_:der in 371) [ClassicSimilarity], result of:
          0.026985971 = score(doc=371,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4231716 = fieldWeight in 371, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=371)
        0.026985971 = weight(_text_:der in 371) [ClassicSimilarity], result of:
          0.026985971 = score(doc=371,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4231716 = fieldWeight in 371, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=371)
        0.10515331 = weight(_text_:fortschritt in 371) [ClassicSimilarity], result of:
          0.10515331 = score(doc=371,freq=2.0), product of:
            0.19701613 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.028548526 = queryNorm
            0.53372943 = fieldWeight in 371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0546875 = fieldNorm(doc=371)
        0.026788697 = product of:
          0.06697174 = sum of:
            0.028333599 = weight(_text_:28 in 371) [ClassicSimilarity], result of:
              0.028333599 = score(doc=371,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.27705154 = fieldWeight in 371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=371)
            0.03863814 = weight(_text_:29 in 371) [ClassicSimilarity], result of:
              0.03863814 = score(doc=371,freq=4.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.38474706 = fieldWeight in 371, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=371)
          0.4 = coord(2/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Wenn sich ein Regulierer einem Medium nähert, tut er gut daran, vorab eine persönliche Erklärung abzugeben. Sie sollte die Versicherung enthalten, dass er nicht in der Absicht komme, wirtschaftlichen Fortschritt zu würgen. Ferner sollte der Hinweis enthalten sein, dass er kein Peritomiker der Freiheit sei und keinerlei Fantasie dämpfende Ziele verfolge. Auch wäre es nicht von Schaden zu bekennen, dass man - am besten: immer schon - ein Gegner von Kasuistik aller Art und überdies ein Anhänger des ein wenig verstümmelten pädagogischen Prinzips vom Wachsen lassen sei, und im Übrigen nach der Devise lebe: soviel Freiheit wie möglich und soviel Notwendigkeit wie notwendig.
    Date
    13. 5.2007 10:29:29
    5. 6.2007 11:28:03
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  8. Betschon, S.: Ellbögeln um Googles Gunst : Der Google-Suchindex als Spiegelbild von politischen und wirtschaftlichen Interessenkonflikten (2006) 0.06
    0.059059355 = product of:
      0.14174245 = sum of:
        0.04260083 = weight(_text_:grenzen in 5957) [ClassicSimilarity], result of:
          0.04260083 = score(doc=5957,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 5957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=5957)
        0.026709184 = weight(_text_:der in 5957) [ClassicSimilarity], result of:
          0.026709184 = score(doc=5957,freq=36.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4188313 = fieldWeight in 5957, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5957)
        0.04260083 = weight(_text_:grenzen in 5957) [ClassicSimilarity], result of:
          0.04260083 = score(doc=5957,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 5957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=5957)
        0.026709184 = weight(_text_:der in 5957) [ClassicSimilarity], result of:
          0.026709184 = score(doc=5957,freq=36.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4188313 = fieldWeight in 5957, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5957)
        0.0031224333 = product of:
          0.015612166 = sum of:
            0.015612166 = weight(_text_:29 in 5957) [ClassicSimilarity], result of:
              0.015612166 = score(doc=5957,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.15546128 = fieldWeight in 5957, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5957)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Vor zehn Jahren, am 8. Februar 1996, wurde in Davos die "Unabhängigkeitserklärung" des Cyberspace verlesen. Anlässlich des Weltwirtschaftsforums trat ein gewisser John Perry Barlow aufs Podest, ein Viehzüchter aus Wyoming, der sich als Songschreiber der kalifornischen Psychedelic-Pop-Band Greatful Dead einen Namen gemacht hatte: "Regierungen der industrialisierten Welt, ihr müden Giganten aus Fleisch und Stahl, ich komme vom Cyberspace, der neuen Heimat des Geistes. Im Namen der Zukunft fordere ich euch Vertreter der Vergangenheit auf, uns allein zu lassen. Wir haben keine gewählte Regierung, und wir werden voraussichtlich auch nie eine haben, deshalb richte ich mich an euch mit keiner anderen Autorität als mit der, die der Freiheit selbst zu eigen ist. Ich erkläre den weltweiten Gesellschaftsraum, den wir aufbauen, als unabhängig von der Tyrannei, die ihr uns auferlegen wollt." In China, Deutschland, Frankreich, Russland, Singapur und den Vereinigten Staaten würden an den Grenzen zum Cyberspace Wachposten aufgebaut, doch diese könnten die Verbreitung des ansteckenden "Virus der Freiheit" nicht stoppen. Das Echo war, so berichten Zeitzeugen, verhalten, vermutlich wussten viele der anwesenden Politiker und Wirtschaftsführer mit Begriffen wie "Cyberspace" oder "World Wide Web" nichts anzufangen. Als Barlow die Unabhängigkeitserklärung zwei Tage später in Cannes an der MultimediaFachmesse Milia erneut vortrug, soll es dann aber donnernden Applaus gegeben haben, die Leute hätten eine halbe Stunde lang geklatscht. Die "alten Mächte aus Fleisch und Stahl" haben sich inzwischen auch im Reich der Bits und Bytes durchgesetzt. Nichts illustriert dies besser als Googles Kotau vor der chinesischen Regierung. Um Zugang zu erhalten zum chinesischen Markt, wo bereits mehr als 110 Millionen Menschen regelmässig das Internet benutzen, erklärte sich die kalifornische Jungfirma Ende Januar bereit, ihre Suchmaschine zu modifizieren, so dass sie Webseiten ausblendet, die zu Themen wie Taiwan, Tibet oder Tiananmen-Platz-Protesten Meinungen verbreiten, die denjenigen der chinesischen Regierung nicht entsprechen. Die Firma, die als ihr Unternehmensziel nennt, "die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen", deren inoffizieller Leitspruch heisst "Don't be evil" - nicht böse sein - diese Firma übernimmt nun im Auftrag der chinesischen Regierung das Amt des Zensors.
    Source
    Online Mitteilungen. 2006, Nr.86, S.29-31 [=Mitteilungen VÖB 59(2006) H.2]
  9. FR: Google für Wissenschaftler (2004) 0.06
    0.056288086 = product of:
      0.16886425 = sum of:
        0.022257652 = weight(_text_:der in 1977) [ClassicSimilarity], result of:
          0.022257652 = score(doc=1977,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34902605 = fieldWeight in 1977, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.049696747 = weight(_text_:wissenschaft in 1977) [ClassicSimilarity], result of:
          0.049696747 = score(doc=1977,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.4385556 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.022257652 = weight(_text_:der in 1977) [ClassicSimilarity], result of:
          0.022257652 = score(doc=1977,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34902605 = fieldWeight in 1977, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.07465219 = weight(_text_:forschung in 1977) [ClassicSimilarity], result of:
          0.07465219 = score(doc=1977,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.5375043 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.33333334 = coord(4/12)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  10. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.05
    0.050404426 = product of:
      0.15121327 = sum of:
        0.033312205 = weight(_text_:der in 1770) [ClassicSimilarity], result of:
          0.033312205 = score(doc=1770,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.5223744 = fieldWeight in 1770, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.033312205 = weight(_text_:der in 1770) [ClassicSimilarity], result of:
          0.033312205 = score(doc=1770,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.5223744 = fieldWeight in 1770, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.059721746 = weight(_text_:forschung in 1770) [ClassicSimilarity], result of:
          0.059721746 = score(doc=1770,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.43000343 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.024867112 = product of:
          0.06216778 = sum of:
            0.031224333 = weight(_text_:29 in 1770) [ClassicSimilarity], result of:
              0.031224333 = score(doc=1770,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.31092256 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
            0.030943448 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.030943448 = score(doc=1770,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.4 = coord(2/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Nach einer kurzen Darstellung der Entwicklung der Suchdienste wird das Suchretrieval von AltaVista näher beschrieben. Es werden Kriterien für die Beurteilung der Suchdienste festgelegt. Danach folgt die Beschreibung der Möglichkeiten der einzelnen Suchdienste und ihre Beurteilung. Zum Schluß wird über die Auswahl eines Suchdienstes diskutiert.
    Date
    23.10.1996 17:26:29
    22. 3.2008 14:04:11
    Footnote
    Überarbeitete Ausgabe der Diplomarbeit im Studiengang Öffentliche Bibliotheken bei der Fachhochschule Stuttgart, Hochschule für Bibliotheks- und Informationswesen.
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  11. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.05
    0.049585637 = product of:
      0.11900553 = sum of:
        0.018886246 = weight(_text_:der in 389) [ClassicSimilarity], result of:
          0.018886246 = score(doc=389,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 389, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.029818047 = weight(_text_:wissenschaft in 389) [ClassicSimilarity], result of:
          0.029818047 = score(doc=389,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.26313335 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.018886246 = weight(_text_:der in 389) [ClassicSimilarity], result of:
          0.018886246 = score(doc=389,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 389, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.04479131 = weight(_text_:forschung in 389) [ClassicSimilarity], result of:
          0.04479131 = score(doc=389,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.32250258 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.0066236816 = product of:
          0.03311841 = sum of:
            0.03311841 = weight(_text_:29 in 389) [ClassicSimilarity], result of:
              0.03311841 = score(doc=389,freq=4.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.3297832 = fieldWeight in 389, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
    Date
    13. 5.2007 10:29:29
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  12. Haring, M.; Rudaev, A.; Lewandowski, D.: Google & Co. : wie die "Search Studies" an der HAW Hamburg unserem Nutzungsverhalten auf den Zahn fühlen: Blickpunkt angewandte Forschung (2022) 0.05
    0.048948735 = product of:
      0.1468462 = sum of:
        0.030841108 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.030841108 = score(doc=630,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4836247 = fieldWeight in 630, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=630)
        0.030841108 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.030841108 = score(doc=630,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4836247 = fieldWeight in 630, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=630)
        0.059721746 = weight(_text_:forschung in 630) [ClassicSimilarity], result of:
          0.059721746 = score(doc=630,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.43000343 = fieldWeight in 630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=630)
        0.025442237 = product of:
          0.06360559 = sum of:
            0.032381255 = weight(_text_:28 in 630) [ClassicSimilarity], result of:
              0.032381255 = score(doc=630,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.31663033 = fieldWeight in 630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
            0.031224333 = weight(_text_:29 in 630) [ClassicSimilarity], result of:
              0.031224333 = score(doc=630,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.31092256 = fieldWeight in 630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
          0.4 = coord(2/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Die Forschungsgruppe Search Studies forscht an der HAW Hamburg zur Nutzung kommerzieller Suchmaschinen, zur Suchmaschinenoptimierung und zum Relevance Assessment von Suchmaschinen. Der Leiter der Forschungsgruppe, Prof. Dr. Dirk Lewandowski, stand für ein Interview zu seiner Tätigkeit und der seines Teams, sowie seiner Lehre an der HAW Hamburg zur Verfügung. Sollten wir Informationen aus dem Internet vertrauen oder ist Vorsicht angebracht?
    Date
    28. 1.2022 11:05:29
  13. Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019) 0.05
    0.04771028 = product of:
      0.14313084 = sum of:
        0.024984155 = weight(_text_:der in 5022) [ClassicSimilarity], result of:
          0.024984155 = score(doc=5022,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3917808 = fieldWeight in 5022, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
        0.029818047 = weight(_text_:wissenschaft in 5022) [ClassicSimilarity], result of:
          0.029818047 = score(doc=5022,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.26313335 = fieldWeight in 5022, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
        0.024984155 = weight(_text_:der in 5022) [ClassicSimilarity], result of:
          0.024984155 = score(doc=5022,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3917808 = fieldWeight in 5022, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
        0.06334448 = weight(_text_:forschung in 5022) [ClassicSimilarity], result of:
          0.06334448 = score(doc=5022,freq=4.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.45608753 = fieldWeight in 5022, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
      0.33333334 = coord(4/12)
    
    Abstract
    In diesem Aufsatz stellen wir eine repräsentative Multimethodenstudie (bestehend aus Umfrage, aufgabenbasierter Nutzerstudie und OnlineExperiment) zum Wissen und Verhalten der deutschen Internetnutzer bezüglich der Anzeigen auf Google-Suchergebnisseiten vor. Die Ergebnisse zeigen, dass die überwiegende Mehrzahl der Nutzenden nicht hinreichend in der Lage ist, Werbung von organischen Ergebnissen zu unterscheiden. Die aufgabenbasierte Studie zeigt, dass lediglich 1,3 Prozent der Teilnehmenden alle Anzeigen und organischen Ergebnisse richtig markieren konnten. 9,6 Prozent haben ausschließlich korrekte Markierungen vorgenommen, dabei aber keine Vollständigkeit erreicht. Aus den Ergebnissen der Umfrage geht hervor, dass es viele Unklarheiten gibt über das Geschäftsmodell von Google und die Art und Weise, wie Suchmaschinenwerbung funktioniert. Die Ergebnisse des Online-Experiments zeigen, dass Nutzende, die die Unterscheidung zwischen Anzeigen und organischen Ergebnissen nicht verstehen, etwa doppelt so häufig auf Anzeigen klicken wie diejenigen, die diese Unterscheidung verstehen. Implikationen für die Forschung ergeben sich in den Bereichen Wiederholungsstudien bzw. Monitoring der Anzeigendarstellung, vertiefende Laborstudien, Modelle des Informationsverhaltens, Informationskompetenz und Entwicklung fairer Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.3-14
  14. Streit, A. von: Rechnersuche (2003) 0.05
    0.047294065 = product of:
      0.11350576 = sum of:
        0.04260083 = weight(_text_:grenzen in 497) [ClassicSimilarity], result of:
          0.04260083 = score(doc=497,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=497)
        0.01259083 = weight(_text_:der in 497) [ClassicSimilarity], result of:
          0.01259083 = score(doc=497,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.19743896 = fieldWeight in 497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=497)
        0.04260083 = weight(_text_:grenzen in 497) [ClassicSimilarity], result of:
          0.04260083 = score(doc=497,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=497)
        0.01259083 = weight(_text_:der in 497) [ClassicSimilarity], result of:
          0.01259083 = score(doc=497,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.19743896 = fieldWeight in 497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=497)
        0.0031224333 = product of:
          0.015612166 = sum of:
            0.015612166 = weight(_text_:29 in 497) [ClassicSimilarity], result of:
              0.015612166 = score(doc=497,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.15546128 = fieldWeight in 497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=497)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Content
    "Die Matrix, das wissen wir inzwischen, bestimmt unser Leben. Schlimm ist das nicht, denn ein Dahintreiben zwischen programmierten Lebenswelten kann ja ganz angenehm sein. Anders gesagt: Was sollten wir eigentlich ohne das Internet machen? Etwa unseren Lesestoff künftig wieder beim Buchhändler kaufen, ausrangierten Wohlstandsmüll auf Flohmärkten verkaufen und in Kneipen statt in Chaträumen nach potenziellen Lebenspartnern suchen? Alles hat seine Grenzen. Vor allem aber würde einleben ohne das Netz der Netze bedeuten: Wir müssten ohne Google auskommen. Dabei ist alles doch schon so schön programmiert. Google hilft uns, Dinge zu finden, von denen wir niemals etwas erfahren hätten: schlimme Fotos, versteckte Web-Seiten, Informationen, Freunde, Bombenbauanleitungen und inzwischen auch nach berechneter Wichtigkeit sortierte Medien-Nachrichten. Solange wir online sind, wartet das Google-Eingabefeld auf uns, verspricht Rettung in der Orientierungslosigkeit: "Google bringt Ordnung ins Web" zum Beispiel, "Google ermöglicht die Suche nach mehr als einer Milliarde URLs" und natürlich: "Google kann Sie glücklich machen!" Keine Sekte könnte das besser formulieren. Und während sich der Papst immer noch nicht für einen der möglichen Schutzheiligen des Internets entscheiden kann, macht sich die schmucklose Suchmaschinen-Software langsam aber sicher daran, seine glücksbringenden Algorithmen in immer mehr Bereiche unseres. Lebens zu verlinken. Denn Google kann. seit Neuestem, auch rechnen. Natürlich nicht wie ein ordinärer Taschenrechner, wer kann denn so etwas überhaupt noch bedienen? Stattdessen: 1 + 1 in die Eingabezeile geschrieben, Suchtaste gedrückt, und schon wirft Google das Ergebnis aus. Andere lassen sich Sinus, Tangens, Kosinus oder Potenzen berechnen, indem sie Sachen wie "8*0,6+2^5 tan2877" eingeben (was im Mathe-Unter-richt natürlich nach wie vor "(8 x 0,6) + ((25) tan(2 877))" geschrieben werden muss und -22,0915108 zum Ergebnis hat). Maßeinheiten-Fetischisten wandeln lieber Fuß in Meter um - und bekommen zur unschuldigen Anfrage "1 feet in meters" neben dem Ergebnis gleich noch 755 000 Webseiten angeboten. Was sollten wir nur ohne Google machen?"
    Date
    16. 8.1996 10:03:29
  15. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.05
    0.046075165 = product of:
      0.1382255 = sum of:
        0.016355969 = weight(_text_:der in 5741) [ClassicSimilarity], result of:
          0.016355969 = score(doc=5741,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.25648075 = fieldWeight in 5741, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
        0.042169087 = weight(_text_:wissenschaft in 5741) [ClassicSimilarity], result of:
          0.042169087 = score(doc=5741,freq=4.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.37212676 = fieldWeight in 5741, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
        0.016355969 = weight(_text_:der in 5741) [ClassicSimilarity], result of:
          0.016355969 = score(doc=5741,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.25648075 = fieldWeight in 5741, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
        0.06334448 = weight(_text_:forschung in 5741) [ClassicSimilarity], result of:
          0.06334448 = score(doc=5741,freq=4.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.45608753 = fieldWeight in 5741, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
      0.33333334 = coord(4/12)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.7, S.352
  16. Behrens, D.: Google ohne Grenzen : 5 Tipps: so reizen Sie Google voll aus (2002) 0.04
    0.044219892 = product of:
      0.17687957 = sum of:
        0.08520166 = weight(_text_:grenzen in 1307) [ClassicSimilarity], result of:
          0.08520166 = score(doc=1307,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 1307, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=1307)
        0.08520166 = weight(_text_:grenzen in 1307) [ClassicSimilarity], result of:
          0.08520166 = score(doc=1307,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 1307, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=1307)
        0.006476251 = product of:
          0.032381255 = sum of:
            0.032381255 = weight(_text_:28 in 1307) [ClassicSimilarity], result of:
              0.032381255 = score(doc=1307,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.31663033 = fieldWeight in 1307, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1307)
          0.2 = coord(1/5)
      0.25 = coord(3/12)
    
    Date
    28. 9.2002 12:20:10
  17. Arnold, A.: Jetzt finden Sie alles schneller (2005) 0.04
    0.043843877 = product of:
      0.13153163 = sum of:
        0.045185003 = weight(_text_:grenzen in 74) [ClassicSimilarity], result of:
          0.045185003 = score(doc=74,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.27238047 = fieldWeight in 74, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
        0.020580808 = weight(_text_:der in 74) [ClassicSimilarity], result of:
          0.020580808 = score(doc=74,freq=38.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32273117 = fieldWeight in 74, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
        0.045185003 = weight(_text_:grenzen in 74) [ClassicSimilarity], result of:
          0.045185003 = score(doc=74,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.27238047 = fieldWeight in 74, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
        0.020580808 = weight(_text_:der in 74) [ClassicSimilarity], result of:
          0.020580808 = score(doc=74,freq=38.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32273117 = fieldWeight in 74, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
      0.33333334 = coord(4/12)
    
    Content
    "Desktop-Suchprogramme finden zu einem Stichwort alle passenden Infos und Dateien auf Ihrem Rechner. Sie arbeiten schnell und sparen die mühsame Suche über den Windows-Explorer, der nur einen Bruchteil der relevanten Informationen findet. Ein Beispiel: Macht etwa der DSL-Zugang Schwierigkeiten und Sie suchen nach Tipps, wie sich das Problem lösen lässt, ist eine Desktop-Suche ideal. Sie findet das Stichwort "DSL" etwa in Ihrer Mailkorrespondenz, wenn Sie von Ihrem Provider mal eine Anleitung bekommen haben. Sie findet Handbücher zu Ihrer DSL-Hardware im PDF-Format. Sie findet Links zu DSL-Websites, wenn Sie solche in Ihren Favoriten haben, und sie findet jede weitere Information zum Thema DSL, die auf Ihrem Rechner gespeichert ist. Doch spüren Sie mit den Tools richt nur Dokumente auf. Sie finden damit auch Bilder und Musikdateien. Wer große Mengen von MP3- oder JPEG-Dateien auf seinem Rechner hat, sollten sich die Tools auf jeden Fall ansehen. Denn sie indizieren auch die Meta-Informationen. Bei Musikdateien ist das zum Beispiel der Name des Künstlers, des Albums oder das Erscheinungsjahr. Diese Informationen stehen in den ID3-Tags (Identify an MP3). In Bildern gibt es Zusatzinfos in den Exif-Daten (Exchangeable Image File Format), die etwa durch Stichwörter wie "Urlaub 2005", "Landschaften" und "Familie" das Foto beschreiben und wieder auffindbar machen.
    Das leisten Desktop-Such Tools Desktop-Suchmaschinen indizieren alle gängigen Dateien auf Ihrem Rechner. Das heißt, sie speichern nicht nur den Dateinamen, sondern scannen auch den darin enthaltenen Text und merken sich diesen. Dazu ist nach der Installation einer Desktop-Suche zunächst mal ein Indizierungsvorgang nötig. Welche Ordner die Software durchsucht, stellen Sie in den Optionen der Programme ein. Die Tools führen die Indizierung nur dann aus, wenn am Rechner gerade nicht gearbeitet wird. Je nach Datenumfang und PC-Geschwindigkeitdauert der erste Suchlauf zwischen 10 Minuten und mehreren Stunden. Die Utilities sind also nach der Installation nicht sofort einsatzbereit. Haben Sie viele Daten auf Ihrem Rechner, kann es sich lohnen, den PC eine Nacht lang eingeschaltet zu lassen. Am nächsten Morgen ist der Index dann auf jeden Fall komplett, und Sie können Ioslegen. Die vorgestellten Desktop-Suchen indizieren alle gängigen Dateiformate. Lediglich dem Tool von Microsoft muss mit einem Plug-in noch das PDF-Format beigebracht werden. Wer auch mit exotischen Formaten arbeitet, findet auf den Websites der Anbieter oft Plugins oder Erweiterungspakete, mit denen die Programme weitere Dateitypen durchsuchen. Der Suchvorgang nach ein oder zwei Stichwörtern läuft bei allen Programmen flott abnach wenigen Sekunden präsentieren sie eine Ergebnisliste. Bei dieser Liste unterscheiden sich die Tools aber. Wir erwarten, dass sich die gefundenen Dateien gut sortieren lassen, etwa nach Ordnern, Dateitypen oder Kategorien wie Musik, Bilder, Dokumente. Zudem sollte jede Software Module zur Vorschau auf die gefundenen Dateien liefern oder aus dem Windows-System einbinden. Die Grenzen der Suchmaschinen Die Leistung der Tools hat uns beeindruckt. Besonders gut gefällt uns, dass sie auch in großen Musik- und Bildersammlungen suchen. Doch zeigen sich hier auch die Grenzen der Suchmaschinen. Damit ein Programm alle Bilder aus dem Urlaub 2005 liefert, muss man die Bilder erst einmal mit den entsprechenden Informationen versehen. Das ist aber mit den Desktop-Suchprogrammen nicht möglich. Sie brauchen dafür ein Spezialprogramm, etwa eine Bildverwaltung, mit dem Sie die Infos eingeben können. Somit brauchen Sie zusätzlich zur Desktop-Suchmaschine auf jeden Fall ergänzende Tools. Ein weiterer, wenn auch kleinerer, Nachteil ist der Speicherplatzbedarf. Für den Cache, der die Infos zu indizierten Dateien enthält, benötigen die Tools bis zu mehreren hundert MB. Spitzenreiter ist hier das Tool von Google, da es auch Kopien der meisten Dateien anlegt. Auch die anderen Programme weisen einen großen Cache auf. Wie viel Platz genau verbraucht wird, hängt von der Zahl und Art der indizierten Dateien ab."
  18. Hartknopf, A.: Schweizer Messer : Zusatzwerkzeuge bei Google (2006) 0.04
    0.042320244 = product of:
      0.12696072 = sum of:
        0.04260083 = weight(_text_:grenzen in 4731) [ClassicSimilarity], result of:
          0.04260083 = score(doc=4731,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 4731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.02087953 = weight(_text_:der in 4731) [ClassicSimilarity], result of:
          0.02087953 = score(doc=4731,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32741547 = fieldWeight in 4731, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.04260083 = weight(_text_:grenzen in 4731) [ClassicSimilarity], result of:
          0.04260083 = score(doc=4731,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 4731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.02087953 = weight(_text_:der in 4731) [ClassicSimilarity], result of:
          0.02087953 = score(doc=4731,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32741547 = fieldWeight in 4731, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.33333334 = coord(4/12)
    
    Abstract
    Google muss nicht immer Suche sein. Denn der Konzern bietet inzwischen auf vielen Feldern des World Wide Web seine Dienste an. Er gibt dem virtuellen Besucher sogar Einblicke in seine Entwicklungsabteilung, die Google Labs. Die Großen der Internet-Branche haben einen Kampf der Giganten begonnen. Service jagt Service, die Fantasien darüber, was den Nutzern nützt, scheinen keine Grenzen zu kennen. Google hat in den vergangenen Monaten eine Reihe neuer Dienste gestartet. Viele tragen noch verschämt das Beta-Feigenblatt, sind in ihrer Funktionalität aber schon gut erkennbar. Meistens sind die Werkzeuge kostenfrei. Google verdient dabei an seinen Werbeanzeigen, kleine unauffällige Text-Ads, die vom sonstigen Inhalt der Seiten kaum unterscheidbar sind. Der Witz: Die Werbung wird kontextabhängig eingeblendet. So verspricht man sich eine geringere Streuung und bessere Bedienung der Zielgruppen. Bei jedem Klick eines Users auf einen Anzeigenlink verdient das Unternehmen mit den vielen Os. Können wir die schönen neuen Tools gebrauchen?
    Footnote
    Google Print: "Wie andere Große im Internet-Business möchte auch Google den Inhalt einer Vielzahl an Büchern online zugänglich machen (print. google.de). Von Belletristik über Nachschlagewerke bis hin zu medizinischen und anderen Fachbüchern sollen sich die Inhalte nach Stichworten durchsuchen lassen. Praktisch sieht es so aus, dass die einzelnen Buchseiten gescannt und das Ganze dann als TIFF am Bildschirm angezeigt werden kann. Sucht man nach einem Stichwort, Autor oder Titel, zeigt Google in gewohnter Manier eine Liste von Treffern an. Häufig erscheinen auch kleine Abbildungen der Buchumschläge. Allerdings fehlt z. B. eine gesonderte Erfassung der Inhaltsverzeichnisse. Es gibt zwar einen entsprechenden Link, aber der führt nur auf die gescannten Verzeichnisseiten des jeweiligen Titels. Inhalt und Inhaltsverzeichnis lassen sich also nicht gleichzeitig anschauen, sondern nur durch Hin- und Herspringen. Bei umfangreichen Werken, womöglich noch mit mehreren Autoren, verliert der User leicht den Überblick darüber, was er gerade liest. Aber zum Lesen ist das Ganze nicht primär gedacht. Werke, die noch dem Urheberrecht unterliegen, sind zwar auf Stichworte hin durchsuchbar, doch die Ergebnisse werden nur in ihrem unmittelbaren Kontext dargestellt. Wer mehr möchte, kann mit einem Klick beim nächsten Online-Buchhändler oder -Antiquariat den Titel erwerben. Daher stellen viele Verlage die Inhalte ihrer Werke für Google-Print zur Verfügung. Nicht urheberrechtlich geschützte Bücher sind prinzipiell auch im Ganzen lesbar. Aufgrund der international widersprüchlichen Urheberrechtslage machte Google kürzlich eine viel beachtete Scan-Pause, um Verlagen und Urhebern die Möglichkeit zum Einspruch zugeben."
  19. Jesdanun, A.: Streitbare Suchmaschine : Polar Rose ermöglicht Internet-Recherche mit Gesichtserkennung (2007) 0.04
    0.042320244 = product of:
      0.12696072 = sum of:
        0.04260083 = weight(_text_:grenzen in 547) [ClassicSimilarity], result of:
          0.04260083 = score(doc=547,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=547)
        0.02087953 = weight(_text_:der in 547) [ClassicSimilarity], result of:
          0.02087953 = score(doc=547,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32741547 = fieldWeight in 547, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=547)
        0.04260083 = weight(_text_:grenzen in 547) [ClassicSimilarity], result of:
          0.04260083 = score(doc=547,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=547)
        0.02087953 = weight(_text_:der in 547) [ClassicSimilarity], result of:
          0.02087953 = score(doc=547,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32741547 = fieldWeight in 547, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=547)
      0.33333334 = coord(4/12)
    
    Abstract
    Probleme für den Schutz der Persönlichkeitsrechte wirft das Projekt einer schwedischen Firma auf, die eine Internet-Suchmaschine mit Gesichtserkennung entwickelt. Die Technik der Firma Polar Rose scannt öffentlich verfügbare Fotos ein, sortiert sie nach rund 90 verschiedenen Merkmalen und erstellt so eine Datenbank. Die Suchmaschine soll in der Lage sein, ein beliebiges Foto mit diesen Daten abzugleichen, die Identität der gezeigten Person zu ermitteln und eine Liste mit Web-Seiten zu liefern, auf denen diese Person zu sehen ist. Bei Tests. mit 10 000 Fotos habe es in 95 Prozent der Fälle eine zuverlässige Erkennung gegeben, sagt der Vorstandschef von Polar Rose, Nikolaj Nyholm. Allerdings schränkt er ein, dass die Genauigkeit mit wachsender Datenbasis vermutlich geringer wird, weil bei Millionen und vielleicht Milliarden von Personenfotos die Wahrscheinlichkeit zunimmt, dass sich zwei oder mehr Personen sehr ähnlich sehen. Deshalb sollen die Nutzer des geplanten Internet-Dienstes selbst Informationen beisteuern, etwa die Namen von abgebildeten Personen. Polar Rose verfolgt das Konzept, die zahllosen Fotos, die sich etwa bei Flickr oder Myspace finden, besser durchsuchbar zu machen, als bei der herkömmlichen Bildersuche. Auch Personen, die nur im Hintergrund eines Fotos zu sehen sind, sollen auf diese Weise erfasst werden. Was aber ist, wenn Arbeitgeber, Polizei oder misstrauische Partner auf diese Weise die Anwesenheit einer Person an einem bestimmten Ort aufdecken, die eigentlich vertraulich bleiben sollte? "Ich glaube nicht, dass wir da schon alle Antworten haben", räumt Nyholm ein. Der Leiter der Organisation Privacy International, Simon Davies, sieht sich durch Techniken wie die von Polar Rose in seiner Einschätzung bestätigt, dass es Grenzen für die Internet-Suche geben müsse. Andernfalls werde die Suche im Internet in Dimensionen vorstoßen, "die unendlich mächtiger sind, als wir es uns jemals vorstellen konnten". Davies fordert eine Debatte über eine Begrenzung der Internet-Suche und über ein Mitspracherecht von einzelnen Personen bei der Nutzung ihrer Daten. Die Verfügbarkeit von Fotos im Internet sei kein Freibrief für massenhafte Aufbereitung in Datenbanken.
  20. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.04
    0.039645623 = product of:
      0.095149495 = sum of:
        0.026894026 = weight(_text_:der in 3635) [ClassicSimilarity], result of:
          0.026894026 = score(doc=3635,freq=146.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4217298 = fieldWeight in 3635, product of:
              12.083046 = tf(freq=146.0), with freq of:
                146.0 = termFreq=146.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.009939349 = weight(_text_:wissenschaft in 3635) [ClassicSimilarity], result of:
          0.009939349 = score(doc=3635,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.08771112 = fieldWeight in 3635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.026894026 = weight(_text_:der in 3635) [ClassicSimilarity], result of:
          0.026894026 = score(doc=3635,freq=146.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4217298 = fieldWeight in 3635, product of:
              12.083046 = tf(freq=146.0), with freq of:
                146.0 = termFreq=146.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.029860873 = weight(_text_:forschung in 3635) [ClassicSimilarity], result of:
          0.029860873 = score(doc=3635,freq=8.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.21500172 = fieldWeight in 3635, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0015612167 = product of:
          0.007806083 = sum of:
            0.007806083 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
              0.007806083 = score(doc=3635,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.07773064 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Date
    11. 2.2006 20:15:29
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "

Years

Languages

  • d 467
  • e 188
  • nl 4
  • f 2
  • More… Less…

Types

  • a 548
  • el 65
  • m 55
  • x 11
  • s 10
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications