Search (722 results, page 1 of 37)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.20
    0.19716963 = product of:
      0.7886785 = sum of:
        0.03550495 = product of:
          0.10651484 = sum of:
            0.10651484 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.10651484 = score(doc=2514,freq=2.0), product of:
                0.1895221 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022354547 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.15063472 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15063472 = score(doc=2514,freq=4.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15063472 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15063472 = score(doc=2514,freq=4.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15063472 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15063472 = score(doc=2514,freq=4.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15063472 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15063472 = score(doc=2514,freq=4.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15063472 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15063472 = score(doc=2514,freq=4.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.25 = coord(6/24)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.07
    0.066447884 = product of:
      0.22782132 = sum of:
        0.021872375 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021872375 = score(doc=3068,freq=26.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06457064 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06457064 = score(doc=3068,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.018485783 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.018485783 = score(doc=3068,freq=18.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.37019804 = fieldWeight in 3068, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06457064 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06457064 = score(doc=3068,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.007640563 = product of:
          0.015281126 = sum of:
            0.015281126 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.015281126 = score(doc=3068,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
        0.021872375 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021872375 = score(doc=3068,freq=26.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.028808914 = product of:
          0.05761783 = sum of:
            0.05761783 = weight(_text_:deutschland in 3068) [ClassicSimilarity], result of:
              0.05761783 = score(doc=3068,freq=8.0), product of:
                0.10797144 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022354547 = queryNorm
                0.53363955 = fieldWeight in 3068, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Source
    Young information scientists. 1(2016), S.13-29
  3. Mayer, K.: Zur Soziometrik der Suchmaschinen : ein historischer Überblick der Methodik (2009) 0.06
    0.06159858 = product of:
      0.24639432 = sum of:
        0.012010672 = weight(_text_:und in 19) [ClassicSimilarity], result of:
          0.012010672 = score(doc=19,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.24241515 = fieldWeight in 19, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
        0.0903989 = weight(_text_:methodik in 19) [ClassicSimilarity], result of:
          0.0903989 = score(doc=19,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.5592425 = fieldWeight in 19, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
        0.018751081 = weight(_text_:des in 19) [ClassicSimilarity], result of:
          0.018751081 = score(doc=19,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 19, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
        0.0228241 = weight(_text_:der in 19) [ClassicSimilarity], result of:
          0.0228241 = score(doc=19,freq=14.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4570776 = fieldWeight in 19, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
        0.0903989 = weight(_text_:methodik in 19) [ClassicSimilarity], result of:
          0.0903989 = score(doc=19,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.5592425 = fieldWeight in 19, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
        0.012010672 = weight(_text_:und in 19) [ClassicSimilarity], result of:
          0.012010672 = score(doc=19,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.24241515 = fieldWeight in 19, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
      0.25 = coord(6/24)
    
    Abstract
    Der vorliegende Text rekonstruiert die wechselvolle Geschichte einer Methode, die allen heutigen Suchmaschinen zugrunde liegt: Die Bestimmung der Autorität eines Datensatzes über seine Verlinkung - und die mit dieser Methode verbundenen sozialen Visionen. Ausgehend von Referenzen, die die Konstrukteure der Suchmaschinen selbst zur historischen Verankerung ihrer Techniken angeben, folge ich multiplen Spuren auf der Suche nach der so vorgenommenen Bestimmung von Autorität. Ich werde fündig in Konzepten zu sozialen Beziehungen und deren Wandel zu soziotechnischen Kommunikationen, die heute selbstverständlich erscheinen.
    Source
    Deep Search: Politik des Suchens jenseits von Google; Deep Search-Konferenz, Wien, 2008.11.08; eine Veröffentlichung des World-Information Institute. Hrsg.: K. Becker u. F. Stalder
  4. Deep Search : Politik des Suchens jenseits von Google; Deep Search-Konferenz ; (Wien) : 2008.11.08; eine Veröffentlichung des World-Information Institute (2009) 0.05
    0.053957395 = product of:
      0.18499678 = sum of:
        0.009706088 = weight(_text_:und in 15) [ClassicSimilarity], result of:
          0.009706088 = score(doc=15,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.19590102 = fieldWeight in 15, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
        0.051656514 = weight(_text_:methodik in 15) [ClassicSimilarity], result of:
          0.051656514 = score(doc=15,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.31956714 = fieldWeight in 15, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
        0.01694175 = weight(_text_:des in 15) [ClassicSimilarity], result of:
          0.01694175 = score(doc=15,freq=10.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.27366623 = fieldWeight in 15, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
        0.025611656 = weight(_text_:fragen in 15) [ClassicSimilarity], result of:
          0.025611656 = score(doc=15,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.22501859 = fieldWeight in 15, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
        0.019718168 = weight(_text_:der in 15) [ClassicSimilarity], result of:
          0.019718168 = score(doc=15,freq=32.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3948779 = fieldWeight in 15, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
        0.051656514 = weight(_text_:methodik in 15) [ClassicSimilarity], result of:
          0.051656514 = score(doc=15,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.31956714 = fieldWeight in 15, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
        0.009706088 = weight(_text_:und in 15) [ClassicSimilarity], result of:
          0.009706088 = score(doc=15,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.19590102 = fieldWeight in 15, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
      0.29166666 = coord(7/24)
    
    Abstract
    Suchmaschinen wie Google stehen im Zentrum unseres digitalen Lebens. Hinter ihrem einfachen Interface verbirgt sich jedoch eine politische Philosophie in Form von komplexen digitalen Codes. Auf dem Spiel steht nichts weniger als die Frage, wie wir individuell und kollektiv etwas über die Welt in Erfahrung bringen werden.
    Content
    Inhalt: - Geschichte Paul Duguid: Die Suche vor grep: Eine Entwicklung von Geschlossenheit zu Offenheit? Robert Darnton: Die Bibliothek im Informationszeitalter: 6000 Jahre Schrift Geert Lovink: Die Gesellschaft der Suche: Fragen oder Googeln Katja Mayer: Zur Soziometrik der Suchmaschinen: Ein historischer Überblick der Methodik - Grundrechte Claire Lobet-Maris: Vom Vertrauen zur Spurenauswertung: Eine neue Sicht der Technikfolgenabschätzung loris van Hoboken: Suchmaschinen-Gesetzgebung und die Frage der Ausdrucksfreiheit: Eine europäische Perspektive Felix Stalder, Christine Mayer: Der zweite Index: Suchmaschinen, Personalisierung und Überwachung
    - Macht Theo Röhle: Die Demontage der Gatekeeper: Relationale Perspektiven zur Macht der Suchmaschinen Bernhard Rieder: Demokratisierung der Suche? Von der Kritik zum gesellschaftlich orientierten Design Matteo Pasquinelli: Googles PageRank: Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens Konrad Becker: Die Macht der Klassifizierung: Abgründe des Wissens an den Klippen der Ordnung - Sichtbarkeit Richard Rogers: Zur Frage der Vergoogelung: Hin zu einer unkritisierbaren Maschine? Metahaven: Periphere Kräfte: Zur Relevanz von Marginalität in Netzwerken Lev Manovich: Auf den Spuren der globalen digitalen Kulturen: Kulturanalytik für Anfänger
    Footnote
    Viele Beiträge in diesem Band wurden zuerst auf der Deep Search-Konferenz vorgestellt, die am 8. November 2008 in Wien stattfand. Lizenzausgabe 2010 bei der Bundeszentrale für Politische Bildung, Bonn. Rez. in: ZfBB 58(2011) H.3/4, S.236-237 (M. Dörr)
  5. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.05
    0.053189475 = product of:
      0.2553095 = sum of:
        0.019412177 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.019412177 = score(doc=3275,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.10331303 = weight(_text_:methodik in 3275) [ClassicSimilarity], result of:
          0.10331303 = score(doc=3275,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.6391343 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.009859084 = weight(_text_:der in 3275) [ClassicSimilarity], result of:
          0.009859084 = score(doc=3275,freq=2.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.19743896 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.10331303 = weight(_text_:methodik in 3275) [ClassicSimilarity], result of:
          0.10331303 = score(doc=3275,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.6391343 = fieldWeight in 3275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
        0.019412177 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.019412177 = score(doc=3275,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
      0.20833333 = coord(5/24)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  6. ¬Der Google Hummingbird Algorithmus : semantisch-holistische Suche (2013) 0.05
    0.05119925 = product of:
      0.2457564 = sum of:
        0.009706088 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009706088 = score(doc=2521,freq=2.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10331303 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10331303 = score(doc=2521,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.019718168 = weight(_text_:der in 2521) [ClassicSimilarity], result of:
          0.019718168 = score(doc=2521,freq=8.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3948779 = fieldWeight in 2521, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10331303 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10331303 = score(doc=2521,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.009706088 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009706088 = score(doc=2521,freq=2.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
      0.20833333 = coord(5/24)
    
    Abstract
    Im September 2013 verkündete Google den schon einen Monat vorher ausgerollten völlig neuen Algorithmus mit dem Namen "Hummingbird". Der Name wurde bewusst gewählt. Schließlich zeichnet den "Kolibri" seine äußerst schnelle und dabei doch präzise Methodik aus. Searchmetrics hat analysiert, wie sich der neue Algorithmus auf die SERPs auswirkt. Ergebnis: Die Diversität der Suchergebnisse hat abgenommen. Google zeigt zunehmend "gleichere" Resultate für semantisch äquivalente Queries an.
  7. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.04
    0.040983517 = product of:
      0.19672088 = sum of:
        0.012608579 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.012608579 = score(doc=2482,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.07748477 = weight(_text_:methodik in 2482) [ClassicSimilarity], result of:
          0.07748477 = score(doc=2482,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.47935072 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.016534185 = weight(_text_:der in 2482) [ClassicSimilarity], result of:
          0.016534185 = score(doc=2482,freq=10.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3311152 = fieldWeight in 2482, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.07748477 = weight(_text_:methodik in 2482) [ClassicSimilarity], result of:
          0.07748477 = score(doc=2482,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.47935072 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.012608579 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.012608579 = score(doc=2482,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
  8. Alby, T.; Karzauninkat, S.: Suchmaschinenoptimierung : professionelles Website-Marketing für besseres Ranking ; [berücksichtigt Google Analytics] (2007) 0.03
    0.034331564 = product of:
      0.13732626 = sum of:
        0.025679896 = weight(_text_:und in 35) [ClassicSimilarity], result of:
          0.025679896 = score(doc=35,freq=56.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.51830536 = fieldWeight in 35, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.015153162 = weight(_text_:des in 35) [ClassicSimilarity], result of:
          0.015153162 = score(doc=35,freq=8.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.24477452 = fieldWeight in 35, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.025611656 = weight(_text_:fragen in 35) [ClassicSimilarity], result of:
          0.025611656 = score(doc=35,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.22501859 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.013042342 = weight(_text_:der in 35) [ClassicSimilarity], result of:
          0.013042342 = score(doc=35,freq=14.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.2611872 = fieldWeight in 35, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.0321593 = weight(_text_:allgemeines in 35) [ClassicSimilarity], result of:
          0.0321593 = score(doc=35,freq=2.0), product of:
            0.12754214 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.022354547 = queryNorm
            0.25214645 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.025679896 = weight(_text_:und in 35) [ClassicSimilarity], result of:
          0.025679896 = score(doc=35,freq=56.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.51830536 = fieldWeight in 35, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
      0.25 = coord(6/24)
    
    Abstract
    Mit Suchmaschinenoptimierung. Professionelles Website-Marketing für besseres Ranking liefern Stefan Karzauninkat und Tom Alby einen sauberen Überblick über Grundlagen, Gründe, Maßnahmen und Zielsetzungen von suchmaschinenoptierten Websites. Essentielles Internet-Wissen auf dem aktuellen Stand. Karzauninkat und Alby widmen ihr Buch Entscheidern, Konzeptionern, Designern und Webmastern, die ihre Website, ob neu oder alt, im Gesamtzusammenhang des Internet sehen und verstehen wollen. Suchmaschinen sind und waren dabei schon immer ein wesentlicher Faktor, denn sie sind die Instanz, die eine Website und deren Informationen findet, wenn sie gesucht wird. Die Sucharbeit der Maschinen kann man ignorieren, behindern oder unterstützen -- wenn man weiß wie. Karzauninkat und Alby haben ihr Wissen praktisch erworben. Vor allem Karzauninkat kann zahlreiche Internetprojekt vorweisen, zu denen auch die bekannte und viel besuchte Suchmaschinen-Website www.suchfibel.de gehört. Ziel der beiden Autoren ist es, ein allgemeines Verständnis für die Such- und Gefundenwelt des Internet und dauerhafte und anhaltende Maßnahmen für die gefunden-werden-Bilanz sowie die Platzierung innerhalb der Liste der gefundenen Suchergebnisse zu vermitteln. Überzeugen, erklären und zeigen lautet die Devise: Am Anfang steht eine Einführung mit dem Titel "Wozu das Ganze". Argumentationsstoff und Fakten für den folgenden Aufwand. Darauf folgt die Website-Optimierung als Teil der Unternehmenskommunikation und dieses Kapitel zeigt auch einen Fokus der beiden: Verkaufen. Nun gut, welcher Zweck auch immer, die Mittel sind immer die gleichen. Als nächstes stellen sie Suchmaschinen und ihre Funktionsweise vor, bevor sie sich dann dem Kern ihres Buches widmen: die Optimierung zur Positionsverbesserung. Hier entschlüsseln sie die Bedeutung von Inhalt, erklären kurz die technischen Belange und zeigen wo es Probleme und Widerstände geben kann. Auch professionelle Dienstleister für die Website-Optimierung nehmen sie unter die Lupe. Zuletzt dann Suchmaschinenmarketing, laufende Maßnahmen zur Erfolgskontrolle und dann noch sechs kurze Fallbeispiele. Ebenso bieten sie ein Glossar und einen Anhang mit Server-Response-Codes, Agents und Meta-Tags sowie weiterführende Literatur und Weblinks. Übrigens steht den Druck-Käufern das gesamte Buch auch als eBook zur Verfügung! Suchmaschinenoptimierung ist ein guter, locker geschriebener und leicht zu lesender, vor allem aktueller Überblick mit einem Gespür für die Fragen und Bedürfnisse der Zielgruppe von Entscheider bis Webmaster. Wer Suchmaschinen-Verständnis ohne technische Überlastung sucht, liest hier zufrieden.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
  9. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.03
    0.0330482 = product of:
      0.11330812 = sum of:
        0.015865445 = weight(_text_:und in 3080) [ClassicSimilarity], result of:
          0.015865445 = score(doc=3080,freq=38.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.32021725 = fieldWeight in 3080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.017047308 = weight(_text_:des in 3080) [ClassicSimilarity], result of:
          0.017047308 = score(doc=3080,freq=18.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.27537134 = fieldWeight in 3080, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.033270516 = weight(_text_:fragen in 3080) [ClassicSimilarity], result of:
          0.033270516 = score(doc=3080,freq=6.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.29230773 = fieldWeight in 3080, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.02025016 = weight(_text_:der in 3080) [ClassicSimilarity], result of:
          0.02025016 = score(doc=3080,freq=60.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.40553164 = fieldWeight in 3080, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.0045843376 = product of:
          0.009168675 = sum of:
            0.009168675 = weight(_text_:29 in 3080) [ClassicSimilarity], result of:
              0.009168675 = score(doc=3080,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.11659596 = fieldWeight in 3080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
        0.015865445 = weight(_text_:und in 3080) [ClassicSimilarity], result of:
          0.015865445 = score(doc=3080,freq=38.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.32021725 = fieldWeight in 3080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.0064249123 = product of:
          0.0128498245 = sum of:
            0.0128498245 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.0128498245 = score(doc=3080,freq=4.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    In der digitalen Welt wäscht ein Permaregen der Informationen ganz zentrale Standards wie Objektivität und Wahrheit aus. Die Folge: eine Demokratie der «Nichtwissenwollengesellschaft».
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
    Date
    24. 8.2016 9:29:24
  10. Söhler, M.: Schluss mit Schema F (2011) 0.03
    0.031038795 = product of:
      0.12415518 = sum of:
        0.016811438 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.016811438 = score(doc=4439,freq=24.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.01694175 = weight(_text_:des in 4439) [ClassicSimilarity], result of:
          0.01694175 = score(doc=4439,freq=10.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.27366623 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.047278356 = weight(_text_:speziellen in 4439) [ClassicSimilarity], result of:
          0.047278356 = score(doc=4439,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.30572486 = fieldWeight in 4439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.014788626 = weight(_text_:der in 4439) [ClassicSimilarity], result of:
          0.014788626 = score(doc=4439,freq=18.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.29615843 = fieldWeight in 4439, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.016811438 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.016811438 = score(doc=4439,freq=24.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.011523566 = product of:
          0.023047132 = sum of:
            0.023047132 = weight(_text_:deutschland in 4439) [ClassicSimilarity], result of:
              0.023047132 = score(doc=4439,freq=2.0), product of:
                0.10797144 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022354547 = queryNorm
                0.21345583 = fieldWeight in 4439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4439)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  11. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.03
    0.02963775 = product of:
      0.118551 = sum of:
        0.013428339 = weight(_text_:und in 5114) [ClassicSimilarity], result of:
          0.013428339 = score(doc=5114,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27102837 = fieldWeight in 5114, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.018751081 = weight(_text_:des in 5114) [ClassicSimilarity], result of:
          0.018751081 = score(doc=5114,freq=16.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 5114, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.022410197 = weight(_text_:fragen in 5114) [ClassicSimilarity], result of:
          0.022410197 = score(doc=5114,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.19689126 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.019766249 = weight(_text_:der in 5114) [ClassicSimilarity], result of:
          0.019766249 = score(doc=5114,freq=42.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3958408 = fieldWeight in 5114, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.013428339 = weight(_text_:und in 5114) [ClassicSimilarity], result of:
          0.013428339 = score(doc=5114,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27102837 = fieldWeight in 5114, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.030766804 = sum of:
          0.02016624 = weight(_text_:deutschland in 5114) [ClassicSimilarity], result of:
            0.02016624 = score(doc=5114,freq=2.0), product of:
              0.10797144 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.022354547 = queryNorm
              0.18677385 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
          0.010600563 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
            0.010600563 = score(doc=5114,freq=2.0), product of:
              0.07828181 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022354547 = queryNorm
              0.1354154 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
      0.25 = coord(6/24)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46
    Series
    Thema des Tages
  12. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.03
    0.02854801 = product of:
      0.11419204 = sum of:
        0.015888626 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
          0.015888626 = score(doc=4440,freq=28.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3206851 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.014824032 = weight(_text_:des in 4440) [ClassicSimilarity], result of:
          0.014824032 = score(doc=4440,freq=10.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.23945795 = fieldWeight in 4440, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.04136856 = weight(_text_:speziellen in 4440) [ClassicSimilarity], result of:
          0.04136856 = score(doc=4440,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.26750925 = fieldWeight in 4440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.016139073 = weight(_text_:der in 4440) [ClassicSimilarity], result of:
          0.016139073 = score(doc=4440,freq=28.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.32320264 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.015888626 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
          0.015888626 = score(doc=4440,freq=28.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3206851 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.01008312 = product of:
          0.02016624 = sum of:
            0.02016624 = weight(_text_:deutschland in 4440) [ClassicSimilarity], result of:
              0.02016624 = score(doc=4440,freq=2.0), product of:
                0.10797144 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022354547 = queryNorm
                0.18677385 = fieldWeight in 4440, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4440)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  13. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.03
    0.028213825 = product of:
      0.1128553 = sum of:
        0.025737155 = weight(_text_:und in 3423) [ClassicSimilarity], result of:
          0.025737155 = score(doc=3423,freq=36.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.51946104 = fieldWeight in 3423, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.009470727 = weight(_text_:des in 3423) [ClassicSimilarity], result of:
          0.009470727 = score(doc=3423,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.15298408 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.03201457 = weight(_text_:fragen in 3423) [ClassicSimilarity], result of:
          0.03201457 = score(doc=3423,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.28127325 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.0123238545 = weight(_text_:der in 3423) [ClassicSimilarity], result of:
          0.0123238545 = score(doc=3423,freq=8.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.2467987 = fieldWeight in 3423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.025737155 = weight(_text_:und in 3423) [ClassicSimilarity], result of:
          0.025737155 = score(doc=3423,freq=36.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.51946104 = fieldWeight in 3423, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.0075718313 = product of:
          0.015143663 = sum of:
            0.015143663 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.015143663 = score(doc=3423,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.3, S.189-190
  14. Summann, F.; Wolf, S.: BASE-Suchmaschinentechnologie für digitale Bibliotheken (2005) 0.03
    0.027565613 = product of:
      0.13231495 = sum of:
        0.014559132 = weight(_text_:und in 3191) [ClassicSimilarity], result of:
          0.014559132 = score(doc=3191,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.29385152 = fieldWeight in 3191, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
        0.011364872 = weight(_text_:des in 3191) [ClassicSimilarity], result of:
          0.011364872 = score(doc=3191,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.18358089 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
        0.07091753 = weight(_text_:speziellen in 3191) [ClassicSimilarity], result of:
          0.07091753 = score(doc=3191,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.4585873 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
        0.020914275 = weight(_text_:der in 3191) [ClassicSimilarity], result of:
          0.020914275 = score(doc=3191,freq=16.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4188313 = fieldWeight in 3191, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
        0.014559132 = weight(_text_:und in 3191) [ClassicSimilarity], result of:
          0.014559132 = score(doc=3191,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.29385152 = fieldWeight in 3191, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
      0.20833333 = coord(5/24)
    
    Abstract
    Allgemeine Suchmaschinen wie Google werden heutzutage immer häufiger auch bei der Recherche nach wissenschaftlichen Informationen eingesetzt. Dabei ist meist nicht klar, dass sie auf diesem Gebiet höchst unvollständig sind. Gleichzeitig setzt man die aus Suchmaschinen gewohnte einfache Bedienung und sehr hohe Performanz inzwischen auch bei speziellen Rechercheinstrumenten für wissenschaftliche Informationen (z.B. Fachdatenbanken) voraus. Auch wenn die Oualität der enthaltenen Ouellen hier um ein Vielfaches höher liegt gestaltet sich die Bedienung einer Fachdatenbank jedoch meist deutlich schwieriger als die einer Suchmaschine. Im Rahmen eines Projekts hat die Universitätsbibliothek Bielefeld mit der "Bielefeld Academic Search Engine" (BASE) eine Suchmaschine entwickelt, die die hohe Relevanz der Ouellen aus Datenbanken mit der Einfachheit der Bedie-nung einer Suchmaschine kombiniert. Der Schwerpunkt liegt eindeutig auf der praktischen Umsetzung. Die allgemeine Vorgehensweise (eingesetzte SuchmaschinenSoftware und -Technologien, Entwicklung des Layouts, Integration von Datenquellen etc.) und die möglichen Einsatzgebiete einer solchen wissenschaftlichen Suchmaschine werden in diesem Artikel beschrieben.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.51-57
  15. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.03
    0.027337942 = product of:
      0.10935177 = sum of:
        0.013428339 = weight(_text_:und in 5912) [ClassicSimilarity], result of:
          0.013428339 = score(doc=5912,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27102837 = fieldWeight in 5912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.013259017 = weight(_text_:des in 5912) [ClassicSimilarity], result of:
          0.013259017 = score(doc=5912,freq=8.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.2141777 = fieldWeight in 5912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.04136856 = weight(_text_:speziellen in 5912) [ClassicSimilarity], result of:
          0.04136856 = score(doc=5912,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.26750925 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.017784394 = weight(_text_:der in 5912) [ClassicSimilarity], result of:
          0.017784394 = score(doc=5912,freq=34.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.35615197 = fieldWeight in 5912, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.013428339 = weight(_text_:und in 5912) [ClassicSimilarity], result of:
          0.013428339 = score(doc=5912,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27102837 = fieldWeight in 5912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.01008312 = product of:
          0.02016624 = sum of:
            0.02016624 = weight(_text_:deutschland in 5912) [ClassicSimilarity], result of:
              0.02016624 = score(doc=5912,freq=2.0), product of:
                0.10797144 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022354547 = queryNorm
                0.18677385 = fieldWeight in 5912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5912)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  16. Schultheiß, G.F.: Google, Goggle, Google, ... : Whose Mind is it Anywhere? Identifying and Meeting Divers User Needs in the Ongoing Sattle for Mindshare - NFAIS 47th Annual Conference, Philadelphia, USA vom 27. Februar bis 1. März 2005 (2005) 0.03
    0.027236661 = product of:
      0.13073598 = sum of:
        0.014559132 = weight(_text_:und in 3421) [ClassicSimilarity], result of:
          0.014559132 = score(doc=3421,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.29385152 = fieldWeight in 3421, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3421)
        0.03841748 = weight(_text_:fragen in 3421) [ClassicSimilarity], result of:
          0.03841748 = score(doc=3421,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.33752787 = fieldWeight in 3421, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=3421)
        0.010457138 = weight(_text_:der in 3421) [ClassicSimilarity], result of:
          0.010457138 = score(doc=3421,freq=4.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.20941564 = fieldWeight in 3421, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3421)
        0.014559132 = weight(_text_:und in 3421) [ClassicSimilarity], result of:
          0.014559132 = score(doc=3421,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.29385152 = fieldWeight in 3421, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3421)
        0.052743096 = sum of:
          0.0345707 = weight(_text_:deutschland in 3421) [ClassicSimilarity], result of:
            0.0345707 = score(doc=3421,freq=2.0), product of:
              0.10797144 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.022354547 = queryNorm
              0.32018375 = fieldWeight in 3421, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=3421)
          0.018172394 = weight(_text_:22 in 3421) [ClassicSimilarity], result of:
            0.018172394 = score(doc=3421,freq=2.0), product of:
              0.07828181 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022354547 = queryNorm
              0.23214069 = fieldWeight in 3421, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3421)
      0.20833333 = coord(5/24)
    
    Abstract
    Das Herausfinden und Lösen verschiedener Nutzerbedürfnisse als Hauptthema der Konferenz warf gleich mehrere Fragen auf: Erstens, wer sind die Nutzer? Zweitens, was wollen sie? Und wer beurteilt das und aus welcher Sicht? Welche Auswirkungen haben die realisierten Maßnahmen? Die etwa 200 Teilnehmer aus neun Nationen, davon 21 aus europäischen Ländern, davon drei aus Deutschland, wurden in sechs Vortragsblöcken mit einer Vielzahl von Aspekten konfrontiert, die wie so oft in unserer rasanten Entwicklung im IT-Bereich nur Lösungsansätze aufzeigten oder die Schwierigkeiten mit den Angeboten. Herausragendes Merkmal war der mehrfache Bezug auf die Marke "Google"!
    Date
    22. 5.2005 13:38:26
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.3, S.185-188
  17. Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005) 0.03
    0.02689794 = product of:
      0.09222151 = sum of:
        0.01356467 = weight(_text_:und in 3221) [ClassicSimilarity], result of:
          0.01356467 = score(doc=3221,freq=40.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27378 = fieldWeight in 3221, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.006696815 = weight(_text_:des in 3221) [ClassicSimilarity], result of:
          0.006696815 = score(doc=3221,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.10817608 = fieldWeight in 3221, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.016007286 = weight(_text_:fragen in 3221) [ClassicSimilarity], result of:
          0.016007286 = score(doc=3221,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.14063662 = fieldWeight in 3221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.016591499 = weight(_text_:der in 3221) [ClassicSimilarity], result of:
          0.016591499 = score(doc=3221,freq=58.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.33226293 = fieldWeight in 3221, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.0038202815 = product of:
          0.007640563 = sum of:
            0.007640563 = weight(_text_:29 in 3221) [ClassicSimilarity], result of:
              0.007640563 = score(doc=3221,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.097163305 = fieldWeight in 3221, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3221)
          0.5 = coord(1/2)
        0.01356467 = weight(_text_:und in 3221) [ClassicSimilarity], result of:
          0.01356467 = score(doc=3221,freq=40.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27378 = fieldWeight in 3221, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.021976288 = sum of:
          0.014404457 = weight(_text_:deutschland in 3221) [ClassicSimilarity], result of:
            0.014404457 = score(doc=3221,freq=2.0), product of:
              0.10797144 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.022354547 = queryNorm
              0.13340989 = fieldWeight in 3221, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3221)
          0.0075718313 = weight(_text_:22 in 3221) [ClassicSimilarity], result of:
            0.0075718313 = score(doc=3221,freq=2.0), product of:
              0.07828181 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022354547 = queryNorm
              0.09672529 = fieldWeight in 3221, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3221)
      0.29166666 = coord(7/24)
    
    Content
    Selbstbewusst klangen die Worte des Microsoft-Bosses Ballmer bei der Präsentation der neuen Suchmaschine (beta search.msn.de) Mitte November. "Wir werden die Konkurrenz einholen und überholen". Weitaus weniger selbstbewusst sieht aber das zaghafte Agieren des Software-Riesen im Markt aus. Microsoft stellt die neue Suchmaschine als Beta vor, und über das MSN-Portal ist sie gar nicht zu erreichen. Hier gibt es noch die alte Suche, für die MSN den Vertrag mit dem bisherigen Partner Overture um ein Jahr verlängert hat. Vorerst existieren also zwei MSN-Suchmaschinen. Seit langem ist Google unangefochten die Nummer Eins. Es gab keinen ernsthaften Versuch, dem Alphatier der Suchbranche das Vorrecht strittig zu machen. Denn der Erfolg beruht auf einem überlegenen Vorteil: Die Suchergebnisse sind weitaus besser als die der Konkurrenz. Google findet einfach das, was man sucht. Wenn es Google nicht findet, findet es kein Anderer. Selbst wo Google den Anwender ärgert, z.B. wenn die ersten 20 Treffer Spam sind, schaffte es bislang kein anderer Anbieter - der Hauptkonkurrent ist YahooOverture - die Nachteile für sich zu nutzen. Google erscheint dem Beobachter oft ein Microsoft der Suchmaschinen zu sein. Genau Microsoft ist nun angetreten, um Google Paroli zu bieten. Jetzt muss sich die BetaMSN beweisen. Denn als Aufstreber müssen ihre Suchergebnisse besser und aktueller sein und weniger Spam enthalten als die von Google. Geht das? Wir wollten uns überzeugen, ob MSN auf dem richtigen Weg ist und machten bei Google, AltMSN, Beta-MSN, Yahoo und Web.de eine Stichprobe. Wir stellten eine Reihe von Suchfragen, wie sie aus Alltagssituationen entstehen könnten, und prüften jeweils die ersten zehn Treffer. Zur Suchsuppe Ein Anwender, der sich einen Trojaner eingefangen hat, will ihn loswerden. In der Suchmaschine gibt er ein: "trojaner entfernen"
    Als Ergebnisse erwartet er Seiten mit Anleitungen, Tipps, Know-how, Forenbeiträgen oder auch Produktinfos. Bei der Lösung dieses Problems liefert Google einen Volltreffer: Die ersten zehn Ergebnisse antworten genau auf das, was der Anwender wissen möchte. Vier der Ergebnisse stammen aus Foren, die einen unendlichen Wissensschatz bergen. Alt-MSN kam nur auf vier und Beta-MSN auf sechs Treffer. In beiden MSN-Listen fanden sich Spam-Seiten zu Dialern - genau so etwas möchte der Anwender aber gerade loswerden. Da ist er bei Google besser aufgehoben. Ähnlich gut wie Google zeigte sich Web.de mit neun Treffern - jedoch erst, nachdem wir die Suche durch den Ausdruck Anleitung Hilfe Entfernung eingrenzten. Web.de bekommt seine Ergebnisse ebenso wie Yahoo und Alt-MSN von Overture, wobei sich die Ergebnisse in Menge und Relevanz leicht unterschieden. Web.de bietet zusätzlich zu jedem Suchergebnis einen Themenbaum, über den sich die Suche weiter eingrenzen lässt. Im Trojaner-Beispiel verbesserte sich dadurch das Ergebnis, aber wir stellten auch das Gegenteil fest. Zum Beispiel bei unserem nächsten Test: +pizza +rezept -käse Die Suchmaschinen sollten zeigen, dass sie die Operatoren sauber ausführen und nicht doch ein Bröckchen Käse in das Ergebnis schlüpft. Google machte keinen Fehler, lieferte aber dennoch nur vier Volltreffer (mit käsefreien Pizzarezepten eben). Alt-MSN versteht die Operatoren überhaupt nicht und kam zu gar keinen Ergebnissen. Beta-MSN machte drei Syntaxfehler. Das heißt, eines der Suchworte fehlte oder Käse war zuviel. Bei Web.de fanden wir zwei leckere Pizzen, aber nach der Eingrenzung der Suche auf Pizzarezepte verließen uns die Teigfladen mit oder ohne Käse völlig: Kein einziges Pizzarezept fand sich in der Liste.
    Bei der Suche +Dell +Notebook -Pentium konnte Beta-MSN glänzen: Acht von zehn Treffern lieferten Informationen zu Dell-Notebooks ohne Pentium-Prozessor. Bei Google waren es nur sieben. Dann prüften wir weitere Operatoren. Die Anführungszeichen für einen genauen Ausdruck beherrschten alle Roboter fehlerfrei. Boolesche Operatoren wiederum können nur Beta-MSN, Yahoo und Web.de. Diese Suchhilfen werden zwar selten verwendet, liefern aber präzise Ergebnisse zu komplexen Fragestellungen -wenn die Suchmaschine die Syntax fehlerfrei beherrscht. Hier scheint BetaMSN noch zu schwächeln, den es kam zu drei Fehlern. Die nächsten Suchabfragen zielten auf Spam und Dialer: "last minute" "La Palma" und "bauanleitung vogelhäuschen" Es zeigte sich, dass alle Roboter mit Spam zu kämpfen haben, Beta-MSN vorneweg. Bauanleitungen stecken besonders gerne hinter Dialern, und so waren die ersten drei Google-Treffer kostenpflichtig (z.B. 29 Euro). Immerhin förderte Google fünf richtige Seiten hervor. Beta-MSN fand nur vier Seiten - alle unbrauchbar. Mit den letzten drei Fragen testeten wir die Aktualität der Ergebnisse. Als schwierige Testfrage stellte sich Schröder China heraus. Der erste Google-Treffer berichtet gleich von der Schröder-Reise - aber von der aus dem Jahr 2003. Denn der Kanzler reist traditionell jedes Jahr im Dezember nach China. Immerhin finden wir bei Google fünf Seiten zur aktuellen Chinafahrt, ebenso bei BetaMSN, je zwei bei Yahoo und Alt-MSN sowie drei bei Web.de. Bei der Eingabe merkel "cdu-parteitag" konnte Google nun wieder glänzen und warf zehn Treffer zum Dezember-Treffen in Düsseldorf aus. Beta-MSN kam nur auf vier. Vier weitere Seiten berichten von gar keinem Parteitag. Bei Beta-MSN tritt auffällig häufig das Problem auf (nicht nur bei dieser Suche), dass der Roboter Übersichtsseiten von Nachrichten indiziert. Zum Beispiel erschien häufiger www. spiegel.de/politik/deutschland. Doch diese Seite ändert sich stündlich. Wenn dort heute auf einen Artikel über den Parteitag hingewiesen wird, ist er morgen verschwunden. Beta-MSN müsste vielmehr die Artikel selbst in die Datenbank nehmen - so wie Google. Das angesprochene Problem ändert sich auch dann nicht, wenn der Anwender den Aktualitätsschieber hoch stellt. Denn Beta-MSN bietet die einzigartige Möglichkeit, in die Relevanz der Suche eingreifen zu können. Im Suchassistenten gibt der Anwender vor, ob ihm Aktualität, Popularität oder Präzision wichtig ist. Geholfen hat es in diesem Fall nicht. Inzwischen hat MSN ein Such-Tool für den Desktop vorgestellt. Auch hier ist Google ein Vorbild. Fazit Bislang kann sich die Beta noch nicht von anderen Suchmaschinen abheben. Sie liegt in puncto Relevanz, Präzision und Aktualität im Mittelfeld (siehe Tabelle), was an sich kein schlechter Start ist. Meist sind ihre Ergebnisse besser als die von Alt-MSN, aber noch weit von denen von Google entfernt. Links auf Seiten, die es nicht mehr gibt (Fehler 404), traten bei Beta-MSN gar nicht auf. Das spricht dafür, dass der Roboter den Index oft erneuert. Ein endgültiges Urteil schließt sich an dieser Stelle aus, denn es handelt sich um eine BetaVersion. Deswegen auch kein Test und keine Noten."
    Date
    22. 1.2005 17:11:04
  18. Kink, N.; Hess, T.: Suchmaschinen als Substitut traditioneller Medien? : Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen (2007) 0.03
    0.026731584 = product of:
      0.10692634 = sum of:
        0.0174979 = weight(_text_:und in 390) [ClassicSimilarity], result of:
          0.0174979 = score(doc=390,freq=26.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3531656 = fieldWeight in 390, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.013123024 = weight(_text_:des in 390) [ClassicSimilarity], result of:
          0.013123024 = score(doc=390,freq=6.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21198097 = fieldWeight in 390, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.03622035 = weight(_text_:fragen in 390) [ClassicSimilarity], result of:
          0.03622035 = score(doc=390,freq=4.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.31822434 = fieldWeight in 390, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.01394285 = weight(_text_:der in 390) [ClassicSimilarity], result of:
          0.01394285 = score(doc=390,freq=16.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.27922085 = fieldWeight in 390, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.00864431 = product of:
          0.01728862 = sum of:
            0.01728862 = weight(_text_:29 in 390) [ClassicSimilarity], result of:
              0.01728862 = score(doc=390,freq=4.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.21985546 = fieldWeight in 390, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=390)
          0.5 = coord(1/2)
        0.0174979 = weight(_text_:und in 390) [ClassicSimilarity], result of:
          0.0174979 = score(doc=390,freq=26.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3531656 = fieldWeight in 390, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
      0.25 = coord(6/24)
    
    Abstract
    Das Internet hat sich in den letzten Jahren rasant verbreitet und zählt weltweit über eine Milliarde Nutzer. Parallel dazu haben Suchmaschinen den Informationsmarkt erobert. Sie sind mittlerweile nicht mehr >nur< der zentrale Zugangsweg zum umfangreichen Informationsangebot des Internets, sondern haben darüber hinaus nachhaltige Wirkung auf die Medienbranche. Allein auf die Suchmaschine Google greifen monatlich ca. 380 Millionen Informationssuchende zu (vgl. Google 2006). Der Börsengang des SuchmaschinenAnbieters spiegelt die wachsende Bedeutung wider. Auch empirische Studien belegen, dass Suchmaschinen zunehmend in den Alltag integriert werden, eine Gatekeeper-Funktion wahrnehmen und dadurch die Informationsbeschaffung grundlegend ändern können. Da die zunehmende Verbreitung von Suchmaschinen mit einer Verdrängung alternativer Medienangebote einhergehen kann, hat diese Entwicklung auch das Interesse traditioneller Medienunternehmen geweckt. Allerdings wurden die Folgen für Medienanbieter bislang kaum erforscht. Mit unserer empirischen Studie wollen wir genau diese Forschungslücke verkleinern. Im Vordergrund stehen Fragestellungen zur Beurteilung und Anwendung von Suchmaschinen aus Nutzersicht und den sich daraus ergebenden Konsequenzen für traditionelle Medienanbieter. Konkret sollen erste Anhaltspunkte dafür gewonnen werden, welche Medien' Informationssuchende durch den Gebrauch von Suchmaschinen, ersetzen, welche sie ergänzend nutzen und warum. Aufgrund des relativ neuen Forschungsgebiets haben wir zur Untersuchung der Fragestellungen qualitative Forschungsmethoden eingesetzt, die einen umfassenden Überblick über das Untersuchungsgebiet schaffen. Es wurde ein Leitfaden konzipiert, anhand dessen den Befragten in einer trichterförmig angeordneten Reihenfolge mehrere offene Fragen gestellt wurden. Diese trichterförmige Anordnung - angefangen bei allgemeinen bis hin zu gezielten Fragen - stellte sicher, dass die Interviewpartner ihre persönliche Meinung uneingeschränkt äußern konnten und erlaubte gleichzeitig eine Quantifizierung der konkreten Antworten. Nach erfolgreichem Pretest wurde das Leitfadeninterview im Sommer 2005 mit 19 Personen durchgeführt. Unsere Stichprobe setzt sich aus acht Experten aus thematiknahen Berufen und elf Studenten unterschiedlicher Studienrichtungen zusammen. Zu den Experten zählen Unternehmensberater, Praktiker und Wissenschaftler aus dem Medienbereich. Die Studenten stammen aus den Fachrichtungen Informatik, BWL und Psychologie. Alle ca. 50-minütigen Interviews wurden mit einem Diktiergerät aufgezeichnet und wortwörtlich transkribiert. Anhand eines Excel-basierten Codeplans wurden die Aussagen diversen Haupt- und Unterkategorien zugeordnet und in ausgewählten Kategorien Häufigkeiten berechnet. Wie bei qualitativen Verfahren üblich, wurde auf Statement-Basis ausgewertet, sodass die Summe der Statements die Anzahl an Befragten übersteigen kann. Um den Aussagen Einzelner kein zu großes Gewicht zu geben, wurden wiederholte Aussagen zu einer Kategorie nur einfach gewertet. Die Ergebnisse der Befragung werden nachfolgend vorgestellt und eingeordnet.
    Date
    13. 5.2007 10:29:29
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  19. Gugerli, D.: Suchmaschinen : die Welt als Datenbank (2009) 0.03
    0.026256686 = product of:
      0.1260321 = sum of:
        0.07066748 = weight(_text_:1960 in 1160) [ClassicSimilarity], result of:
          0.07066748 = score(doc=1160,freq=4.0), product of:
            0.15898375 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.022354547 = queryNorm
            0.444495 = fieldWeight in 1160, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.03125 = fieldNorm(doc=1160)
        0.013726482 = weight(_text_:und in 1160) [ClassicSimilarity], result of:
          0.013726482 = score(doc=1160,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27704588 = fieldWeight in 1160, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1160)
        0.013123024 = weight(_text_:des in 1160) [ClassicSimilarity], result of:
          0.013123024 = score(doc=1160,freq=6.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21198097 = fieldWeight in 1160, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1160)
        0.014788626 = weight(_text_:der in 1160) [ClassicSimilarity], result of:
          0.014788626 = score(doc=1160,freq=18.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.29615843 = fieldWeight in 1160, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1160)
        0.013726482 = weight(_text_:und in 1160) [ClassicSimilarity], result of:
          0.013726482 = score(doc=1160,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27704588 = fieldWeight in 1160, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1160)
      0.20833333 = coord(5/24)
    
    Abstract
    Plötzlich diese Übersicht. Milliarden von Seiten, in Sekundenbruchteilen durchsucht, als Trefferliste sauber angezeigt, mit der größten Selbstverständlichkeit sortiert nach Rang und Namen. Google bestimmt die Routinen des Alltags und ist dennoch nicht die Suchmaschine schlechthin. Auch außerhalb des World Wide Web gibt es zahllose, technisch hochgerüstete Prozeduren des Suchens. Die gegenwärtige Selbstverständlichkeit der einen Suchmaschine läßt leicht übersehen, daß Suchmaschinen einen Interessenkonflikt induzieren zwischen jenen, die sie einsetzen wollen, und jenen, auf die sie angesetzt werden. Ihr prekärer Status im Spannungsfeld zwischen Übersicht und Überwachung wird verdrängt. Anhand von vier Fallstudien zeigt David Gugerli die Entwicklung der Suchmaschine auf, von den frühen Fernseh-Ratespielen, von Robert Lembkes Unterhaltungsshow »Was bin ich?«, über Eduard Zimmermanns Fahndungssendung »Aktenzeichen XY« und Horst Herolds »Kybernetik der Polizei« bis zu der von Ted Codd ausgehenden Entwicklung der relationalen Datenbank. Während Lembke auf die Feststellung von Normalität ausgerichtet war, suchte Zimmermann die Devianz, Herold die Muster und Codd die allgemeingültige Such- und Abfragesprache für in Form gebrachte Wissensbestände, die man seit Mitte der sechziger Jahre Datenbanken nennt. »Die Geschichte der Suchmaschine ist eine eminent politische. Mit Suchmaschinen lassen sich Hoffnungen auf Fundamentaldemokratisierung und informationelle Emanzipation ebenso verbinden wie Horrorvisionen eines Orwellschen Überwachungsstaats, der über ein technokratisches Wissensmonopol verfügt.«
    RSWK
    Suchmaschine / Geschichte 1960-1980 / Fallstudiensammlung
    Subject
    Suchmaschine / Geschichte 1960-1980 / Fallstudiensammlung
  20. Faller, H.: David gegen Google : Wie ein Mathematiker aus New Jersey die größte Suchmaschine der Welt übertrumpfen will: Eine Reise ins Reich der Algorithmen (2004) 0.03
    0.026216052 = product of:
      0.10486421 = sum of:
        0.0210143 = weight(_text_:und in 2870) [ClassicSimilarity], result of:
          0.0210143 = score(doc=2870,freq=24.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.42413816 = fieldWeight in 2870, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.009470727 = weight(_text_:des in 2870) [ClassicSimilarity], result of:
          0.009470727 = score(doc=2870,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.15298408 = fieldWeight in 2870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.03201457 = weight(_text_:fragen in 2870) [ClassicSimilarity], result of:
          0.03201457 = score(doc=2870,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.28127325 = fieldWeight in 2870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.013778488 = weight(_text_:der in 2870) [ClassicSimilarity], result of:
          0.013778488 = score(doc=2870,freq=10.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.27592933 = fieldWeight in 2870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.0210143 = weight(_text_:und in 2870) [ClassicSimilarity], result of:
          0.0210143 = score(doc=2870,freq=24.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.42413816 = fieldWeight in 2870, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.0075718313 = product of:
          0.015143663 = sum of:
            0.015143663 = weight(_text_:22 in 2870) [ClassicSimilarity], result of:
              0.015143663 = score(doc=2870,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.19345059 = fieldWeight in 2870, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2870)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Apostolos Gerasoulis ist Mathematiker und eigentlich mit Problemen beschäftigt, auf deren Lösung die Welt noch warten kann. Doch neuerdings befällt ihn manchmal, abends, wenn er mit seiner Frau vor dem Fernseher sitzt, eine kleine Unruhe. Dann entschuldigt er sich für ein paar Minuten. Aber seine Frau weiß, dass es länger dauern wird, wenn er sich so spät in sein Wohnzimmer verzieht, wenn er im Schein seines Dell-Inspiron-Laptops sitzt, weil er dann nachsieht, was der Welt an diesem Tag durch den Kopf gegangen ist. Apostolos Gerasoulis ist der Erfinder der viertgrößten amerikanischen Internet-Suchmaschine Ask Jeeves. Zehn Millionen Suchbegriffe werden jeden Tag dort eingegeben, das sind zehn Millionen Fragen und Wünsche, nach Nachrichten und Produkten, nach Diagnosen und Namen und natürlich nach nackten Frauen und Pornos und Strippern und Orgien und Pam-Anderson-Videos. Und auch nach dem Sinn des Lebens wird gefragt, nach Gott und dem Teufel, die aber beide sehr weit hinter Britney Spears zurückliegen, die sich als einzige Weltberühmtheit seit Jahren ganz oben hält und von deren Namen Apostolos Hunderte Schreibweisen gesehen hat. . . . Mitte Juli war es so weit. Barry Diller hat Ask Jeeves für 2,3 Milliarden Dollar gekauft. Apostolos Gerasoulis lächelt noch etwas glücklicher als sonst, als er erzählt, dass Diller versprochen hat, ihn demnächst in New York City auf eine große Party mitzunehmen.
    Date
    15.10.2005 19:22:37

Years

Languages

  • d 505
  • e 208
  • f 4
  • nl 4
  • sp 2
  • More… Less…

Types

  • a 592
  • el 76
  • m 64
  • x 13
  • s 11
  • r 4
  • p 2
  • More… Less…

Subjects

Classifications