Search (669 results, page 1 of 34)

  • × theme_ss:"Suchmaschinen"
  1. Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019) 0.07
    0.07487467 = product of:
      0.14974934 = sum of:
        0.0109792445 = product of:
          0.03293773 = sum of:
            0.03293773 = weight(_text_:f in 5022) [ClassicSimilarity], result of:
              0.03293773 = score(doc=5022,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26422277 = fieldWeight in 5022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5022)
          0.33333334 = coord(1/3)
        0.01633334 = product of:
          0.03266668 = sum of:
            0.03266668 = weight(_text_:wissenschaft in 5022) [ClassicSimilarity], result of:
              0.03266668 = score(doc=5022,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26313335 = fieldWeight in 5022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5022)
          0.5 = coord(1/2)
        0.06939603 = weight(_text_:forschung in 5022) [ClassicSimilarity], result of:
          0.06939603 = score(doc=5022,freq=4.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.45608753 = fieldWeight in 5022, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
        0.03055416 = weight(_text_:und in 5022) [ClassicSimilarity], result of:
          0.03055416 = score(doc=5022,freq=18.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.4407773 = fieldWeight in 5022, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
        0.022486566 = weight(_text_:des in 5022) [ClassicSimilarity], result of:
          0.022486566 = score(doc=5022,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.25962257 = fieldWeight in 5022, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
      0.5 = coord(5/10)
    
    Abstract
    In diesem Aufsatz stellen wir eine repräsentative Multimethodenstudie (bestehend aus Umfrage, aufgabenbasierter Nutzerstudie und OnlineExperiment) zum Wissen und Verhalten der deutschen Internetnutzer bezüglich der Anzeigen auf Google-Suchergebnisseiten vor. Die Ergebnisse zeigen, dass die überwiegende Mehrzahl der Nutzenden nicht hinreichend in der Lage ist, Werbung von organischen Ergebnissen zu unterscheiden. Die aufgabenbasierte Studie zeigt, dass lediglich 1,3 Prozent der Teilnehmenden alle Anzeigen und organischen Ergebnisse richtig markieren konnten. 9,6 Prozent haben ausschließlich korrekte Markierungen vorgenommen, dabei aber keine Vollständigkeit erreicht. Aus den Ergebnissen der Umfrage geht hervor, dass es viele Unklarheiten gibt über das Geschäftsmodell von Google und die Art und Weise, wie Suchmaschinenwerbung funktioniert. Die Ergebnisse des Online-Experiments zeigen, dass Nutzende, die die Unterscheidung zwischen Anzeigen und organischen Ergebnissen nicht verstehen, etwa doppelt so häufig auf Anzeigen klicken wie diejenigen, die diese Unterscheidung verstehen. Implikationen für die Forschung ergeben sich in den Bereichen Wiederholungsstudien bzw. Monitoring der Anzeigendarstellung, vertiefende Laborstudien, Modelle des Informationsverhaltens, Informationskompetenz und Entwicklung fairer Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.3-14
  2. epd: Kaiserslauterer Forscher untersuchen Google-Suche (2017) 0.06
    0.061880667 = product of:
      0.15470167 = sum of:
        0.040892 = weight(_text_:forschung in 3815) [ClassicSimilarity], result of:
          0.040892 = score(doc=3815,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.26875216 = fieldWeight in 3815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.016974533 = weight(_text_:und in 3815) [ClassicSimilarity], result of:
          0.016974533 = score(doc=3815,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24487628 = fieldWeight in 3815, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.08977271 = weight(_text_:brandenburg in 3815) [ClassicSimilarity], result of:
          0.08977271 = score(doc=3815,freq=2.0), product of:
            0.22544436 = queryWeight, product of:
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.031275876 = queryNorm
            0.39820337 = fieldWeight in 3815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.007062416 = product of:
          0.021187248 = sum of:
            0.021187248 = weight(_text_:22 in 3815) [ClassicSimilarity], result of:
              0.021187248 = score(doc=3815,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.19345059 = fieldWeight in 3815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3815)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Content
    "Bei der Suche nach Politikern und Parteien über Suchmaschinen wie Google spielt Personalisierung einem Forschungsprojekt zufolge eine geringere Rolle als bisher angenommen. Bei der Eingabe von Politikernamen erhalten verschiedene Nutzer größtenteils die gleichen Ergebnisse angezeigt, lautet ein gestern veröffentlichtes Zwischenergebnis einer Analyse im Auftrag der Landesmedienanstalten. Die Ergebnisse stammen aus dem Forschungsprojekt "#Datenspende: Google und die Bundestagswahl2017" der Initiative AIgorithmWatch und der Technischen Universität Kaiserslautern. Im Durchschnitt erhalten zwei unterschiedliche Nutzer demnach bei insgesamt neun Suchergebnissen sieben bis acht identische Treffer, wenn sie mit Google nach Spitzenkandidaten der Parteien im Bundestagswahlkampf suchen. Die Suchergebnisse zu Parteien unterscheiden sich allerdings stärker. Bei neun Suchanfragen gebe es hier nur fünf bis sechs gemeinsame Suchergebnisse, fanden die Wissenschaftler heraus. Die Informatikprofessorin Katharina Zweig von der TU Kaiserslautern zeigte sich überrascht, dass die Suchergebisse verschiedener Nutzer sich so wenig unterscheiden. "Das könnte allerdings morgen schon wieder anders aussehen", warnte sie, Die Studie beweise erstmals, dass es grundsätzlich möglich sei, Algorithmen von Intermediären wie Suchmaschinen im Verdachtsfall nachvollziehbar zu machen. Den Ergebnissen zufolge gibt es immer wieder kleine Nutzergruppen mit stark abweichenden Ergebnislisten. Eine abschließende, inhaltliche Bewertung stehe noch aus. Für das Projekt haben nach Angaben der Medienanstalt bisher fast 4000 freiwillige Nutzer ein von den Forschern programmiertes Plug-ln auf ihrem Computer- installiert. Bisher seien damitdrei Millionen gespendete Datensätze gespeichert worden. Das Projekt wird finanziert von den Landesmedienanstalten Bayern, Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen." Vgl. auch: https://www.swr.de/swraktuell/rp/kaiserslautern/forschung-in-kaiserslautern-beeinflusst-google-die-bundestagswahl/-/id=1632/did=20110680/nid=1632/1mohmie/index.html. https://www.uni-kl.de/aktuelles/news/news/detail/News/aufruf-zur-datenspende-welche-nachrichten-zeigt-die-suchmaschine-google-zur-bundestagswahl-an/.
    Date
    22. 7.2004 9:42:33
  3. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.06
    0.06105202 = product of:
      0.15263005 = sum of:
        0.014638993 = product of:
          0.043916978 = sum of:
            0.043916978 = weight(_text_:f in 1770) [ClassicSimilarity], result of:
              0.043916978 = score(doc=1770,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35229704 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.33333334 = coord(1/3)
        0.0654272 = weight(_text_:forschung in 1770) [ClassicSimilarity], result of:
          0.0654272 = score(doc=1770,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.027159253 = weight(_text_:und in 1770) [ClassicSimilarity], result of:
          0.027159253 = score(doc=1770,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.39180204 = fieldWeight in 1770, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.045404606 = product of:
          0.068106905 = sum of:
            0.034207314 = weight(_text_:29 in 1770) [ClassicSimilarity], result of:
              0.034207314 = score(doc=1770,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.31092256 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
            0.033899594 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.033899594 = score(doc=1770,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.6666667 = coord(2/3)
      0.4 = coord(4/10)
    
    Abstract
    Nach einer kurzen Darstellung der Entwicklung der Suchdienste wird das Suchretrieval von AltaVista näher beschrieben. Es werden Kriterien für die Beurteilung der Suchdienste festgelegt. Danach folgt die Beschreibung der Möglichkeiten der einzelnen Suchdienste und ihre Beurteilung. Zum Schluß wird über die Auswahl eines Suchdienstes diskutiert.
    Date
    23.10.1996 17:26:29
    22. 3.2008 14:04:11
    Footnote
    Überarbeitete Ausgabe der Diplomarbeit im Studiengang Öffentliche Bibliotheken bei der Fachhochschule Stuttgart, Hochschule für Bibliotheks- und Informationswesen.
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  4. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.06
    0.056240868 = product of:
      0.14060217 = sum of:
        0.023098832 = product of:
          0.046197664 = sum of:
            0.046197664 = weight(_text_:wissenschaft in 5741) [ClassicSimilarity], result of:
              0.046197664 = score(doc=5741,freq=4.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.37212676 = fieldWeight in 5741, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5741)
          0.5 = coord(1/2)
        0.06939603 = weight(_text_:forschung in 5741) [ClassicSimilarity], result of:
          0.06939603 = score(doc=5741,freq=4.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.45608753 = fieldWeight in 5741, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
        0.03220691 = weight(_text_:und in 5741) [ClassicSimilarity], result of:
          0.03220691 = score(doc=5741,freq=20.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.46462005 = fieldWeight in 5741, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
        0.015900403 = weight(_text_:des in 5741) [ClassicSimilarity], result of:
          0.015900403 = score(doc=5741,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 5741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
      0.4 = coord(4/10)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.7, S.352
  5. Siebenlist, T.: MEMOSE. Spezialsuchmaschine für emotional geladene Dokumente (2012) 0.05
    0.048569676 = product of:
      0.12142418 = sum of:
        0.019055564 = product of:
          0.038111128 = sum of:
            0.038111128 = weight(_text_:wissenschaft in 175) [ClassicSimilarity], result of:
              0.038111128 = score(doc=175,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.30698892 = fieldWeight in 175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=175)
          0.5 = coord(1/2)
        0.057248797 = weight(_text_:forschung in 175) [ClassicSimilarity], result of:
          0.057248797 = score(doc=175,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.376253 = fieldWeight in 175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=175)
        0.02656935 = weight(_text_:und in 175) [ClassicSimilarity], result of:
          0.02656935 = score(doc=175,freq=10.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.38329202 = fieldWeight in 175, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=175)
        0.01855047 = weight(_text_:des in 175) [ClassicSimilarity], result of:
          0.01855047 = score(doc=175,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=175)
      0.4 = coord(4/10)
    
    Abstract
    Einige Inhalte von Multimedia-Dokumenten (Bilder, Musikstücke, Videos) stellen Emotionen dar oder können Emotionen beim Benutzer auslösen. Das Ziel des emotionalen Information Retrieval (EmIR) und insbesondere unserer Forschung ist es, dieses emotionale Wissen in den Dokumenten zu identifizieren und es in einer neuen Art von webbasiertem Informationsdienst nutzbar zu machen. In diesem Artikel wird eine Spezialsuchmaschine namens MEMOSE (Media Emotion Search) vorgestellt, deren Aufgabe die emotionale Indexierung sowie das emotionale Retrieval von Multimedia-Dokumenten ist. Neben einer Beschreibung der Komponenten und deren Funktionsweise werden Ergebnisse der Evaluation eines ersten Prototypen kurz vorgestellt und ein Ausblick auf die weitere Entwicklung gegeben.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.4, S.252-260
  6. Lewandowski, D.: Web Information Retrieval (2005) 0.04
    0.043182217 = product of:
      0.10795554 = sum of:
        0.010888893 = product of:
          0.021777786 = sum of:
            0.021777786 = weight(_text_:wissenschaft in 4028) [ClassicSimilarity], result of:
              0.021777786 = score(doc=4028,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.17542224 = fieldWeight in 4028, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4028)
          0.5 = coord(1/2)
        0.056661617 = weight(_text_:forschung in 4028) [ClassicSimilarity], result of:
          0.056661617 = score(doc=4028,freq=6.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.3723939 = fieldWeight in 4028, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.019204492 = weight(_text_:und in 4028) [ClassicSimilarity], result of:
          0.019204492 = score(doc=4028,freq=16.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.27704588 = fieldWeight in 4028, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.02120054 = weight(_text_:des in 4028) [ClassicSimilarity], result of:
          0.02120054 = score(doc=4028,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 4028, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.4 = coord(4/10)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
    Eine regelmäßige Übersicht neuer US-Patente und US-Patentanmeldungen im Bereich Information Retrieval bietet die News-Seite Resourceshelf (www.resourceshelf.com).
    Content
    Mit einer Tabelle, die eine Gegenüberstellung des WebRetrieval zum 'klassischen' Information Retrieval anbietet
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.5-12
  7. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.04
    0.042142298 = product of:
      0.084284596 = sum of:
        0.0054444466 = product of:
          0.010888893 = sum of:
            0.010888893 = weight(_text_:wissenschaft in 3635) [ClassicSimilarity], result of:
              0.010888893 = score(doc=3635,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.08771112 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
        0.0327136 = weight(_text_:forschung in 3635) [ClassicSimilarity], result of:
          0.0327136 = score(doc=3635,freq=8.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.21500172 = fieldWeight in 3635, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.017310696 = weight(_text_:und in 3635) [ClassicSimilarity], result of:
          0.017310696 = score(doc=3635,freq=52.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24972577 = fieldWeight in 3635, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.025965251 = weight(_text_:des in 3635) [ClassicSimilarity], result of:
          0.025965251 = score(doc=3635,freq=48.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.29978633 = fieldWeight in 3635, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0028506096 = product of:
          0.008551829 = sum of:
            0.008551829 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
              0.008551829 = score(doc=3635,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.07773064 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.33333334 = coord(1/3)
      0.5 = coord(5/10)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Date
    11. 2.2006 20:15:29
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
  8. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.04
    0.042104434 = product of:
      0.10526109 = sum of:
        0.020446 = weight(_text_:forschung in 3245) [ClassicSimilarity], result of:
          0.020446 = score(doc=3245,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.13437608 = fieldWeight in 3245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
        0.018978104 = weight(_text_:und in 3245) [ClassicSimilarity], result of:
          0.018978104 = score(doc=3245,freq=40.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.27378 = fieldWeight in 3245, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
        0.020950623 = weight(_text_:des in 3245) [ClassicSimilarity], result of:
          0.020950623 = score(doc=3245,freq=20.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24188907 = fieldWeight in 3245, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
        0.044886354 = weight(_text_:brandenburg in 3245) [ClassicSimilarity], result of:
          0.044886354 = score(doc=3245,freq=2.0), product of:
            0.22544436 = queryWeight, product of:
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.031275876 = queryNorm
            0.19910169 = fieldWeight in 3245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
      0.4 = coord(4/10)
    
    Abstract
    Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  9. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.04
    0.040978085 = product of:
      0.102445215 = sum of:
        0.01633334 = product of:
          0.03266668 = sum of:
            0.03266668 = weight(_text_:wissenschaft in 389) [ClassicSimilarity], result of:
              0.03266668 = score(doc=389,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26313335 = fieldWeight in 389, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.5 = coord(1/2)
        0.0490704 = weight(_text_:forschung in 389) [ClassicSimilarity], result of:
          0.0490704 = score(doc=389,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.32250258 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.024947366 = weight(_text_:und in 389) [ClassicSimilarity], result of:
          0.024947366 = score(doc=389,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.35989314 = fieldWeight in 389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.012094113 = product of:
          0.03628234 = sum of:
            0.03628234 = weight(_text_:29 in 389) [ClassicSimilarity], result of:
              0.03628234 = score(doc=389,freq=4.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.3297832 = fieldWeight in 389, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
    Date
    13. 5.2007 10:29:29
  10. Wild, F.: Visuelle Verfahren im Information Retrieval (2005) 0.04
    0.040285777 = product of:
      0.080571555 = sum of:
        0.0109792445 = product of:
          0.03293773 = sum of:
            0.03293773 = weight(_text_:f in 3182) [ClassicSimilarity], result of:
              0.03293773 = score(doc=3182,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26422277 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.33333334 = coord(1/3)
        0.01633334 = product of:
          0.03266668 = sum of:
            0.03266668 = weight(_text_:wissenschaft in 3182) [ClassicSimilarity], result of:
              0.03266668 = score(doc=3182,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26313335 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.5 = coord(1/2)
        0.028806739 = weight(_text_:und in 3182) [ClassicSimilarity], result of:
          0.028806739 = score(doc=3182,freq=16.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41556883 = fieldWeight in 3182, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.015900403 = weight(_text_:des in 3182) [ClassicSimilarity], result of:
          0.015900403 = score(doc=3182,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 3182, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.008551829 = product of:
          0.025655484 = sum of:
            0.025655484 = weight(_text_:29 in 3182) [ClassicSimilarity], result of:
              0.025655484 = score(doc=3182,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.23319192 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.33333334 = coord(1/3)
      0.5 = coord(5/10)
    
    Abstract
    Bislang wird dem Studium bestehender Verfahren in der Visualisierung des Document Retrieval von Suchmaschinen zu wenig Aufmerksamkeit geschenkt. Der vorliegende Beitrag widmet sich dem Studium von acht Systemen und Prototypen, um die best-practice-Auslese und die Identifikation erfolgsrelevanter Features und Element zu erleichtern. Er legt dazu ein Modell für das visuelle Information Retrieval in Suchmaschinen vor, beschreibt und analysiert die ausgewählten Verfahren und deduziert Herausforderungen für künftige Forschungen. Die wichtigsten Erkenntnisse dabei sind, dass zwar zu wenig integrale Systeme existieren, die den gesamten Retrievalprozess integriert visuell unterstützen, die vorhandenen aber bereits (trotz ihrer Unvollständigkeit) einen Ausweg aus der linearen Krise der Ergebnispräsentation textbasierter Suchmaschinen aufzeigen. Wenngleich noch nicht alle Informationsbedürfnisse von den untersuchten Verfahren erfüllt werden, so zeichnet sich doch ab, dass insbesondere durch die Innovation von Interaktions- und Manipulationsformen neue Wege beschritten werden, die sich auf Effektivität und Effizienz derRetrievalverfahren auswirken.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.29-34
  11. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.04
    0.040018853 = product of:
      0.100047134 = sum of:
        0.00816667 = product of:
          0.01633334 = sum of:
            0.01633334 = weight(_text_:wissenschaft in 3183) [ClassicSimilarity], result of:
              0.01633334 = score(doc=3183,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.13156667 = fieldWeight in 3183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3183)
          0.5 = coord(1/2)
        0.0490704 = weight(_text_:forschung in 3183) [ClassicSimilarity], result of:
          0.0490704 = score(doc=3183,freq=8.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.32250258 = fieldWeight in 3183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.023336126 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.023336126 = score(doc=3183,freq=42.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3366492 = fieldWeight in 3183, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.019473938 = weight(_text_:des in 3183) [ClassicSimilarity], result of:
          0.019473938 = score(doc=3183,freq=12.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.22483975 = fieldWeight in 3183, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.4 = coord(4/10)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
  12. FR: Google für Wissenschaftler (2004) 0.04
    0.039903555 = product of:
      0.13301185 = sum of:
        0.027222235 = product of:
          0.05444447 = sum of:
            0.05444447 = weight(_text_:wissenschaft in 1977) [ClassicSimilarity], result of:
              0.05444447 = score(doc=1977,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.4385556 = fieldWeight in 1977, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1977)
          0.5 = coord(1/2)
        0.081784 = weight(_text_:forschung in 1977) [ClassicSimilarity], result of:
          0.081784 = score(doc=1977,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.5375043 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.024005614 = weight(_text_:und in 1977) [ClassicSimilarity], result of:
          0.024005614 = score(doc=1977,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34630734 = fieldWeight in 1977, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.3 = coord(3/10)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  13. Beuth, P.: Wolframen statt googeln (2009) 0.04
    0.03766338 = product of:
      0.09415845 = sum of:
        0.01539922 = product of:
          0.03079844 = sum of:
            0.03079844 = weight(_text_:wissenschaft in 31) [ClassicSimilarity], result of:
              0.03079844 = score(doc=31,freq=4.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.2480845 = fieldWeight in 31, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.03125 = fieldNorm(doc=31)
          0.5 = coord(1/2)
        0.022519264 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.022519264 = score(doc=31,freq=22.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3248651 = fieldWeight in 31, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=31)
        0.045639694 = weight(_text_:kultur in 31) [ClassicSimilarity], result of:
          0.045639694 = score(doc=31,freq=2.0), product of:
            0.17971884 = queryWeight, product of:
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.031275876 = queryNorm
            0.25395054 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.03125 = fieldNorm(doc=31)
        0.01060027 = weight(_text_:des in 31) [ClassicSimilarity], result of:
          0.01060027 = score(doc=31,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.12238726 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=31)
      0.4 = coord(4/10)
    
    Content
    "Wer Google herausfordert, muss wahnsinnig sein. Oder ein Genie. Stephen Wolfram wird meistens in die zweite Kategorie eingeordnet. Der 49-jährige Physiker und Mathematiker hat bereits zweimal für Furore gesorgt. 1988 stellte er "Mathematica" vor, eine Software, die von Wissenschaftlern und Finanzanalysten für komplizierte Berechnungen aller Art genutzt wird. 2002 veröffentlichte er sein vieldiskutiertes Buch "A New Kind of Science". Wolfram beschreibt darin, wie man mit Hilfe einfacher Computerprogramme auch komplexe Vorgänge in der Natur erklären kann. Nun kündigt der Engländer, der mit 15 seine erste wissenschaftliche Arbeit veröffentlicht und mit 20 seinen Doktor in theoretischer Physik gemacht hat, den nächsten Paukenschlag an. Seine Software "Wolfram Alpha" soll ab Mai 2009 den Suchmaschinenmarkt revolutionieren. Es soll eine Wissensmaschine sein, die Antworten berechnet, anstatt eine Liste von Links auszugeben. Bislang "können wir nur Fragen beantworten, die schon einmal gestellt worden sind", schreibt Wolfram in seinem Blog, "wir können Dinge nachschlagen, aber nichts Neues herausfinden." Für den Sohn deutscher Eltern muss wohl immer alles neu sein. Wie schon "Mathematica" und die "Neue Art der Wissenschaft, so sei auch "Wolfram Alpha" ein "Projekt, das niemals fertig sein wird", sagt er.
    Seine Wissensmaschine "füttert" der Nutzer unter wolframalpha.com mit Fragen statt mit einzelnen Suchbegriffen. Die werden in Rechenaufgaben umformuliert und von Algorithmen mit Hilfe einer gigantischen Datenbank gelöst. Diese Datenbank wiederum soll Fakten und Zusammenhänge aus Politik und Wissenschaft, Kultur, Technik und anderen Gebieten enthalten. Alle diese Daten sind angeblich von einem etwa 100 Personen starken Team geprüft und für zuverlässig befunden worden. Auf die Qualität der Daten muss sich der Nutzer allerdings blind verlassen, während eine Google-Suche in der Regel den Vergleich mehrerer Quellen ermöglicht. Meinungen und überhaupt alles Nicht-Faktische kann "Wolfram Alpha" nicht abbilden. Nova Spivack, Pionier auf dem Gebiet des semantischen Internets, durfte sich "Wolfram Alpha" bislang als Einziger genauer ansehen und beschreibt es als "überaus mächtigen Taschenrechner, mit dem man nicht nur Rechenaufgaben lösen kann". So kann es zum Beispiel die momentane Position der Internationalen Raumstation ISS berechnen. Die Antworten sind laut Spivack aber dermaßen detailliert, dass man einen Universitätsabschluss im jeweiligen Fachgebiet brauche, um sie zu verstehen. Das Genie hat eine Wissensmaschine für Genies entwickelt - für alle anderen eine Wahnsinnsmaschine." Vgl.: http://www.wolframalpha.com
  14. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.04
    0.0360928 = product of:
      0.09023199 = sum of:
        0.018360766 = weight(_text_:und in 3374) [ClassicSimilarity], result of:
          0.018360766 = score(doc=3374,freq=26.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.2648742 = fieldWeight in 3374, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3374)
        0.013770156 = weight(_text_:des in 3374) [ClassicSimilarity], result of:
          0.013770156 = score(doc=3374,freq=6.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.15898573 = fieldWeight in 3374, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3374)
        0.053863622 = weight(_text_:brandenburg in 3374) [ClassicSimilarity], result of:
          0.053863622 = score(doc=3374,freq=2.0), product of:
            0.22544436 = queryWeight, product of:
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.031275876 = queryNorm
            0.23892201 = fieldWeight in 3374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3374)
        0.0042374497 = product of:
          0.012712348 = sum of:
            0.012712348 = weight(_text_:22 in 3374) [ClassicSimilarity], result of:
              0.012712348 = score(doc=3374,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.116070345 = fieldWeight in 3374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3374)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Content
    "Googeln hat es bis in den Duden geschafft. Kein Wunder, dass viele das Angebot aus dem kalifornischen Mountain View quasi als amtliche Internet-Suchmaschine betrachten und nutzen. Wegen seiner unzähligen Zusatzdienste vom Webmailer bis hin zu Onlinekarten hat sich Google aber auch den Ruf eines Datenkraken erworben. Auch deshalb wenden sich viele Nutzer den Suchmaschinen der Konkurrenz zu. So propagiert der Verein für freien Wissenszugang (Suma eV) aus Hannover, dass es wichtig sei, "mehrere, unabhängig voneinander arbeitende Suchmaschinen einzusetzen, um einen möglichst neutralen und umfassenden Überblick geeigneter Quellen zu erhalten". Schirmherr des Vereins ist der MP3-Erfinder Karlheinz Brandenburg. Bei einem Quasi-Monopol wie es Google innehat, bestehe "auf Dauer die Gefahr, dass die Ergebnisse der Informationssuche von Einflüssen nicht allgemein erkennbarer Mechanismen der Betreiber geleitet werden." Laut dem Internet-Statistikdienst Hitslink liefen in diesem Jahr bisher knapp 86 Prozent aller Suchanfragen weltweit über Google. Platz zwei belegt weit abgeschlagen Yahoo mit knapp sechs Prozent. Microsofts Suche Bing belegt - noch nicht einmal ein Jahr alt - mit gut drei Prozent bereits den dritten Rang. Vergleichsweise stark genutzt wird rund um den Globus auch noch die globale Suche von Ask. Hindernisse türmen sich vor wechselfreudigen Surfern jedenfalls nicht auf und Probieren kostet nichts. Jeder beliebige Suchdienst lässt sich bei Browsern wie Firefox oder Internet Explorer mühelos einbinden oder als Startseite festlegen.
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
    Date
    3. 5.1997 8:44:22
  15. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.04
    0.03586786 = product of:
      0.07173572 = sum of:
        0.011549416 = product of:
          0.023098832 = sum of:
            0.023098832 = weight(_text_:wissenschaft in 851) [ClassicSimilarity], result of:
              0.023098832 = score(doc=851,freq=4.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.18606338 = fieldWeight in 851, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=851)
          0.5 = coord(1/2)
        0.0245352 = weight(_text_:forschung in 851) [ClassicSimilarity], result of:
          0.0245352 = score(doc=851,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.16125129 = fieldWeight in 851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
        0.018360766 = weight(_text_:und in 851) [ClassicSimilarity], result of:
          0.018360766 = score(doc=851,freq=26.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.2648742 = fieldWeight in 851, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
        0.011243283 = weight(_text_:des in 851) [ClassicSimilarity], result of:
          0.011243283 = score(doc=851,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.12981129 = fieldWeight in 851, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
        0.0060470565 = product of:
          0.01814117 = sum of:
            0.01814117 = weight(_text_:29 in 851) [ClassicSimilarity], result of:
              0.01814117 = score(doc=851,freq=4.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.1648916 = fieldWeight in 851, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=851)
          0.33333334 = coord(1/3)
      0.5 = coord(5/10)
    
    Content
    Spektrum der Wissenschaft: Frau Henzinger, wie viele Seiten des World Wide Web erschließt Google heute? Monika Henzinger: Wir haben über zwei Milliarden Webseiten in unserer Datenbank. Hinzu kommen 700 Millionen Newsgroup-Beiträge, die weit in die Vergangenheit reichen, und 300 Millionen Bilder. - Spektrum: Und diese Inhalte haben Sie komplett gespeichert? - Henzinger: In komprimierter Form, ja. Spektrum: Ist das nicht schon das gesamte Web? - Henzinger: Bei weitem nicht! Eigentlich ist das Web unendlich. Es gibt Datenbanken, die beliebig viele Webseiten auf Anfrage erzeugen können. Natürlich macht es keinen Sinn, die alle in der Suchmaschine zu haben. Wir beschränken uns auf Seiten hoher Qualität. - Spektrum: Wie wählen Sie die aus? - Henzinger: Nach dem so genannten PageRank. Das ist eine Note, die wir jeder Seite geben, unabhängig von irgendeiner Anfrage, für die diese Seite relevant sein könnte. Und zwar ist die Qualität einer Seite - oder anders gesagt: die Hochachtung, die sie innerhalb des Web genießt - umso größer, je mehr andere Seiten auf sie verweisen und je höher die Qualität der verweisenden Seite ist. Der PageRank bestimmt auch wesentlich die Reihenfolge, in der Google dem Anfrager die Ergebnisse präsentiert. - Spektrum: Ist der PageRank manipulierbar, etwa durch ein Zitierkartell? - Henzinger: Es wird zumindest immer wieder versucht. Zum Beispiel ist "Britney Spears" ein sehr häufiger Suchbegriff. Deswegen versuchen viele, ihren PageRank hochzutreiben, um unter den Antworten auf "Britney Spears" auf den vordersten Plätzen zu landen, auch wenn sie bloß Turnschuhe verkaufen. - Spektrum: Und was tun Sie dagegen? - Henzinger: Wenn wir offensichtlichen Missbrauch sehen, nehmen wir die entsprechenden Seiten gezielt heraus - im Interesse unserer Benutzer, für die wir die Qualität wahren wollen. - Spektrum: Gibt es auch andere Maßnahmen als diese Einzelkorrekturen? - Henzinger: Ja. Aber die diskutieren wir nicht öffentlich, um den "Rüstungswettlauf" nicht anzuheizen. - Spektrum: Seit wann gibt es Google? - Henzinger: Die Firma existiert seit dreieinhalb Jahren. Seit reichlich zwei Jahren sind wir auf dem Markt. Die Kunde von uns hat sich durch Mundpropaganda verbreitet, und inzwischen kommt die Hälfte der Anfragen von außerhalb der USA, zwölf Prozent allein aus dem deutschsprachigen Raum. Wir beantworten über 150 Millionen Anfragen am Tag, und zwar direkt oder über unsere Partner. Wenn zum Beispiel die Suchmaschine Yahoo ein Stichwort nicht im eigenen Verzeichnis findet, reicht sie die Anfrage an uns weiter und gibt dem Benutzer unsere Antwort. - Spektrum: Mit welcher Hardware läuft das System? - Henzinger: Mit über zehntausend PCs, verteilt auf vier Datenzentren. Betriebssystem ist Linux. - Spektrum: Wie prüfen Sie, ob die aufgeftihrten Webseiten noch existieren? - Henzinger: Besonders ereignisreiche Webseiten besuchen wir täglich. Alle 28 Tage aktualisieren wir den Index - das ist die Liste, die zu jedem Wort die Seiten aufführt, auf denen es vorkommt. - Spektrum: Wie aufwendig ist dieses Indizieren? - Henzinger: Sehr aufwendig. Etwa eine Woche. - Spektrum: Wie viele Leute hat die Firma? - Henzinger: Ungefähr 300. Bisher haben wir unsere Belegschaft in jedem Jahr ungefähr verdoppelt. -
    Spektrum: Wie finanziert sich Google? - Henzinger: Überwiegend durch gewöhnliche Reklame: einzeilige Anzeigen, die nur aus durchlaufendem Text bestehen. Diese Werbung erscheint nur auf solche Fragewörter, die mit dem Produkt in Verbindung stehen, wir nennen das "keyword targeting". Auch kann jeder online eine Anzeige kaufen. Wenn Sie Ihrer Frau über Google zum Geburtstag gratulieren wollen, können Sie eine Anzeige schalten, die nur auf deren Namen hin erscheint. Zweitens durch Search Services. Zum Beispiel bezahlt uns Yahoo dafür, dass unsere Ergebnisse auf deren Seite erscheinen. Manche Firmen wollen auf ihrer Webseite eine Suchfunktion einrichten, aber nicht selbst programmieren. Für diese Unternehmen bauen wir dann einen eigenen Index und beantworten damit die Suchanfragen, die an sie gestellt werden. Schließlich verkaufen wir neuerdings unsere Produkte zur firmeninternen Nutzung in Intranets. Mit diesem Konzept sind wir eine der wenigen neuen Internet-Firmen, die ihr Geld verdienen. - Spektrum: Gibt es neue Projekte? - Henzinger: Zum Beispiel Spracheingabe. Der Benutzer spricht seine Frage in ein Mikrofon und bekommt die Antworten auf den Bildschirm, später vielleicht auch gesprochen. Oder unser News Search. Unsere Maschinen lesen Tageszeitungen und stellen Artikel zum gleichen Thema aus verschiedenen Ländern zusammen. Das ist interessant, weil die Berichterstattung zumeist national gefärbt ist. Ein regelmäßiger Vergleich kann den Horizont erweitern. Klicken Sie unter google.com auf "News and Resources" und dann "Check out the Google news search". Oder User Interfaces. Wie bringt man den Benutzer dazu, mehr als zwei Wörter einzutippen? Je mehr Wörter er ansagt, desto besser können wir ihn bedienen.
    Date
    31.12.1996 19:29:41
    2. 8.2002 14:39:29
    Series
    Forschung und Gesellschaft
    Source
    Spektrum der Wissenschaft. 2002, H.7, S.106
  16. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.03
    0.034645822 = product of:
      0.08661455 = sum of:
        0.019055564 = product of:
          0.038111128 = sum of:
            0.038111128 = weight(_text_:wissenschaft in 2768) [ClassicSimilarity], result of:
              0.038111128 = score(doc=2768,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.30698892 = fieldWeight in 2768, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2768)
          0.5 = coord(1/2)
        0.031437274 = weight(_text_:und in 2768) [ClassicSimilarity], result of:
          0.031437274 = score(doc=2768,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.4535172 = fieldWeight in 2768, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2768)
        0.026234329 = weight(_text_:des in 2768) [ClassicSimilarity], result of:
          0.026234329 = score(doc=2768,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.302893 = fieldWeight in 2768, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2768)
        0.009887382 = product of:
          0.029662145 = sum of:
            0.029662145 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
              0.029662145 = score(doc=2768,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.2708308 = fieldWeight in 2768, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2768)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.2, S.61-74
  17. Meister, M.: Europa sucht Alternativen : Projekt kommt nicht voran (2006) 0.03
    0.03323387 = product of:
      0.08308467 = sum of:
        0.0327136 = weight(_text_:forschung in 1709) [ClassicSimilarity], result of:
          0.0327136 = score(doc=1709,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.21500172 = fieldWeight in 1709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=1709)
        0.023520604 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.023520604 = score(doc=1709,freq=24.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 1709, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1709)
        0.02120054 = weight(_text_:des in 1709) [ClassicSimilarity], result of:
          0.02120054 = score(doc=1709,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 1709, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1709)
        0.0056499327 = product of:
          0.016949797 = sum of:
            0.016949797 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.016949797 = score(doc=1709,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.15476047 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1709)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Mit "Quaero" wollen Deutsche und Franzosen Google Konkurrenz machen
    Content
    "Es soll der "Airbus von morgen" werden. Mit diesen Worten hat Frankreichs Staatspräsident Jacques Chirac das deutsch-französische Projekt einer gemeinsamen europäischen Suchmaschine angekündigt, mit der man dem US-Riesen Google Konkurrenz machen will. Das deutsch-französische Kind wurde Quaero getauft. Kein ganz einfacher Name für ein Produkt, das einen weltweiten Marktführer verdrängen soll, der so allgegenwärtig und dominant ist, dass der Begriff "googeln" längst in unsere Sprache Eingang gefunden hat und im Duden verzeichnet ist. Quaero heißt auf Lateinisch "Ich suche". Das klingt nach europäischem Bildengsdünkel und spiegelt zudem den gegenwärtigen Zustand des Projektes gut wider. Gesucht wurde in Deutschland lange nach kompetenten Industriepartnern und gemeinsam mit den Franzosen nach einer Technologie, welche die Möglichkeiten einer herkömmlichen Recherche, wie man sie bei Google, Yahoo oder MSN Search machen kann, bei weitem überschreiten würde. Denn anstatt mittels bestimmter Suchbegriffe bloß Texte im Netz aufzuspüren, soll Quaero eine multimediale Suchmaschine werden, die auch Bilder, Filme und Audiodateien aufspürt. Die Quaero-Initiative ist Teil von Frankreichs Kampf gegen amerikanische Kulturhegonomie. Mit Googles Ankündigung, bis 2015 rund 15 Millionen Bücher zu digitalisieren und über "Google Print" online zugänglich zu machen, begann der Widerstand. Wortführer des Protestes und Initiator ist Jean-Noel Jeanneney, Direktor der französischen Nationalbibliothek. Sollte das literarische Erbe Europas von einem US-Konzern digital verwaltet werden, so Jeanneneys Begründung, drohe eine Hierarchisierung und Ordnung des Wissens nach rein kommerziellen Gesichtspunkten und aus einer einzig amerikanischen Perspektive. Neben den Marktführern Google, Yahoo und MSN Search, die 90 Prozent Marktanteil haben, existieren viele weitere Suchmaschinen im Internet. Auch das Portal Accoona.eu, das in sieben EU-Sprachen arbeitet, will Google Konkurrenz machen. Aber selbst Branchenriesen scheitern daran seit Jahren. Google investiert 400 Millionen Dollar jährlich in Forschung und Entwicklung. Bislang sucht der Internetnutzer vergeblich nach Quaero. Wer sich ein erstes Bild machen will, landet auf der Webseite einer amerikanischen Firma. Der Domainname Quaero.com ist nämlich schon vergeben. Quaero.org ist bislang passwortgeschützt. Sollte sich Quaero tatsächlich als der "Airbus von morgen" erweisen, könnte auch diesem deutsch-französischen Projekt schnell der Absturz drohen."
    Date
    12. 2.1996 22:34:46
    Series
    Thema des Tages: Hintergrund
  18. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.03
    0.03251881 = product of:
      0.081297025 = sum of:
        0.017823258 = weight(_text_:und in 3438) [ClassicSimilarity], result of:
          0.017823258 = score(doc=3438,freq=18.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.25712007 = fieldWeight in 3438, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.039934732 = weight(_text_:kultur in 3438) [ClassicSimilarity], result of:
          0.039934732 = score(doc=3438,freq=2.0), product of:
            0.17971884 = queryWeight, product of:
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.031275876 = queryNorm
            0.22220671 = fieldWeight in 3438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.01855047 = weight(_text_:des in 3438) [ClassicSimilarity], result of:
          0.01855047 = score(doc=3438,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 3438, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.0049885665 = product of:
          0.014965699 = sum of:
            0.014965699 = weight(_text_:29 in 3438) [ClassicSimilarity], result of:
              0.014965699 = score(doc=3438,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.13602862 = fieldWeight in 3438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3438)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Mittlerweile bieten alle größeren Suchmaschinen ein eigenes Suchwerkzeug für den Desktop an, mit dem sich Dateien, E-Mails, Kontakte usw. durchsuchen lassen. Die Tools werden kostenlos angeboten. Sie zeigen, dass die Suchmaschinen ihre Dienste in Zukunft weiter in das direkte Umfeld des Benutzers integrieren wollen.
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Wichtig bei einer Entscheidung für ein bestimmtes Suchtool ist der den individuellen Bedürfnissen angepasste Funktionsumfang. Neben der Dateisuche, die alle Programme für die gängigen Formate bewerkstelligen, sollte beispielsweise geprüft werden, welche E-Mail-Formate unterstützt werden. Am wenigsten Probleme hat man wie auch sonst, wenn man nur die Standardsoftware von Microsoft verwendet - deren Dateiformate werden von allen Suchtools unterstützt. Verwendet man aber Programme mit "exotischeren" Dateiformaten oder möchte man beispielsweise Protokolle aus dem Instant Messaging durchsuchen, so wird die Auswahl der Programme deutlich eingeschränkt. Vor der Installation eines Programms sollte man also genau prüfen, ob es den eigenen Anforderungen genügt. Hilfreich ist die umfassende und aktuelle Übersicht des "Suchberaters" Goebel Group unter http://www.goebelgroup.com/desktopmatrix.htm. In dieser Übersicht sind die Preise der einzelnen Tools angegeben. Denn vor allem die von den großen Web-Suchmaschinen angebotenen Werkzeuge sind kostenlos. Mächtigere Programme kosten Geld - auch das sollte man im Umfeld der von den Suchmaschinen repräsentierten Kostenlos-Kultur nicht vergessen. Letztlich sollte der individuelle Nutzen für die Wahl entscheidend sein."
    Source
    Password. 2005, H.6, S.29
  19. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.03
    0.030069292 = product of:
      0.10023097 = sum of:
        0.016974533 = weight(_text_:und in 6566) [ClassicSimilarity], result of:
          0.016974533 = score(doc=6566,freq=2.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24487628 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.026500674 = weight(_text_:des in 6566) [ClassicSimilarity], result of:
          0.026500674 = score(doc=6566,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.056755763 = product of:
          0.08513364 = sum of:
            0.042759143 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.042759143 = score(doc=6566,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.042374495 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.042374495 = score(doc=6566,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.6666667 = coord(2/3)
      0.3 = coord(3/10)
    
    Abstract
    Der deutsche Konkurrent, der Lieferant in Fernost oder der neue Partner für Nordamerika - sie alle sind vielleicht schon im Internet vertreten. Das Wissen um ihre Existenz und die Kenntnis ihrer Internet-Adresse ist wichtig, vielleicht sogar entscheidend im Wettbewerb. Aber wie finden?
    Content
    Beitrag zu den search engines des Internet
    Date
    22. 2.1997 19:50:29
  20. Griesbaum, J.: Online Marketing : Ein Lehr- und Forschungsgebiet der Informationswissenschaft? (2019) 0.03
    0.029869085 = product of:
      0.09956361 = sum of:
        0.057248797 = weight(_text_:forschung in 5418) [ClassicSimilarity], result of:
          0.057248797 = score(doc=5418,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.376253 = fieldWeight in 5418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
        0.023764348 = weight(_text_:und in 5418) [ClassicSimilarity], result of:
          0.023764348 = score(doc=5418,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34282678 = fieldWeight in 5418, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
        0.01855047 = weight(_text_:des in 5418) [ClassicSimilarity], result of:
          0.01855047 = score(doc=5418,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 5418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
      0.3 = coord(3/10)
    
    Abstract
    Die Darstellung der zentralen Kanäle des Online-Marketing wird fortgesetzt. Bei der Suchwortvermarktung werden Anzeigen auf Suchergebnisseiten geschaltet. Wichtige Größen sind hier die Inhalte, die der Werbetreibende über die gebuchten Suchanfragen definiert, die Gebotshöhe für Klicks auf die Werbeanzeige, die Klickrate und die Qualität der Zielseiten.
    Content
    Lesen Sie in der nächsten Folge: Online Marketing und Lehre - Online Marketing und Forschung.

Years

Languages

  • d 485
  • e 178
  • f 4
  • sp 2
  • nl 1
  • More… Less…

Types

  • a 550
  • el 68
  • m 62
  • x 13
  • s 11
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications