Search (3648 results, page 1 of 183)

  • × type_ss:"a"
  • × language_ss:"d"
  1. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.62
    0.6204409 = product of:
      1.3295162 = sum of:
        0.05025416 = product of:
          0.15076247 = sum of:
            0.15076247 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.15076247 = score(doc=484,freq=2.0), product of:
                0.26825202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.031640913 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.21321033 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.21321033 = score(doc=484,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.21321033 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.21321033 = score(doc=484,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.21321033 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.21321033 = score(doc=484,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.21321033 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.21321033 = score(doc=484,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.21321033 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.21321033 = score(doc=484,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.21321033 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.21321033 = score(doc=484,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.46666667 = coord(7/15)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  2. Axelos, C.; Flasch, K.; Schepers, H.; Kuhlen, R.; Romberg, R.; Zimmermann, R.: Allgemeines/Besonderes (1971-2007) 0.60
    0.596989 = product of:
      1.4924724 = sum of:
        0.24874538 = weight(_text_:2f in 4031) [ClassicSimilarity], result of:
          0.24874538 = score(doc=4031,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.92728245 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4031)
        0.24874538 = weight(_text_:2f in 4031) [ClassicSimilarity], result of:
          0.24874538 = score(doc=4031,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.92728245 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4031)
        0.24874538 = weight(_text_:2f in 4031) [ClassicSimilarity], result of:
          0.24874538 = score(doc=4031,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.92728245 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4031)
        0.24874538 = weight(_text_:2f in 4031) [ClassicSimilarity], result of:
          0.24874538 = score(doc=4031,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.92728245 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4031)
        0.24874538 = weight(_text_:2f in 4031) [ClassicSimilarity], result of:
          0.24874538 = score(doc=4031,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.92728245 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4031)
        0.24874538 = weight(_text_:2f in 4031) [ClassicSimilarity], result of:
          0.24874538 = score(doc=4031,freq=4.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.92728245 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4031)
      0.4 = coord(6/15)
    
    Footnote
    DOI: 10.24894/HWPh.5033. Vgl. unter: https://www.schwabeonline.ch/schwabe-xaveropp/elibrary/start.xav#__elibrary__%2F%2F*%5B%40attr_id%3D%27verw.allgemeinesbesonderes%27%5D__1515856414979.
  3. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.59
    0.59411585 = product of:
      1.2731054 = sum of:
        0.067005545 = product of:
          0.20101663 = sum of:
            0.20101663 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.20101663 = score(doc=140,freq=2.0), product of:
                0.26825202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.031640913 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.20101663 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20101663 = score(doc=140,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20101663 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20101663 = score(doc=140,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20101663 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20101663 = score(doc=140,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20101663 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20101663 = score(doc=140,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20101663 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20101663 = score(doc=140,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20101663 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20101663 = score(doc=140,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.46666667 = coord(7/15)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  4. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.58
    0.5767468 = product of:
      1.235886 = sum of:
        0.20101663 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20101663 = score(doc=2188,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20101663 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20101663 = score(doc=2188,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20101663 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20101663 = score(doc=2188,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20101663 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20101663 = score(doc=2188,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20101663 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20101663 = score(doc=2188,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.029786127 = weight(_text_:web in 2188) [ClassicSimilarity], result of:
          0.029786127 = score(doc=2188,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2884563 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20101663 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20101663 = score(doc=2188,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.46666667 = coord(7/15)
    
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  5. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.46
    0.45916647 = product of:
      0.86093706 = sum of:
        0.04187847 = product of:
          0.1256354 = sum of:
            0.1256354 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.1256354 = score(doc=5895,freq=2.0), product of:
                0.26825202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.031640913 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.1256354 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1256354 = score(doc=5895,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1256354 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1256354 = score(doc=5895,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1256354 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1256354 = score(doc=5895,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.06524619 = weight(_text_:soziale in 5895) [ClassicSimilarity], result of:
          0.06524619 = score(doc=5895,freq=2.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.33751306 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1256354 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1256354 = score(doc=5895,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1256354 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1256354 = score(doc=5895,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1256354 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1256354 = score(doc=5895,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.53333336 = coord(8/15)
    
    Abstract
    Das Problem der Wahrnehmung und Darstellung von Wahrheit durch die Medien führt zu vier zentralen Fragen: Wie viel Wahrheit gibt es in der Welt, über die Journalisten berichten müssen? Wie ermittelt oder recherchiert man diese Wahrheit? Wie trennt man die Spreu vom Weizen? Und wie geht man als Journalist mit dem um, was man als Wahrheit erkannt hat oder erkannt zu haben glaubt? Hier gibt es ganz offensichtlich eine Parallele zwischen Journalisten und Wissenschaftlern. Journalisten und Wissenschaftler brauchen erstens Hypothesen, zweitens geeignete Hypothesentests, drittens ein gutes Abgrenzungs-Kriterium und viertens Verfahren, um die erkannten Sachverhalte auf angemessene Weise für eine Kommunikation mit anderen zu repräsentieren, das heißt sie darzustellen. Es gibt zwei große Unterschiede zwischen Journalisten und Wissenschaftlern: Journalisten sind in der Regel auf raum-zeitlich begrenzte Aussagen aus, Wissenschaftler in der Regel auf raumzeitlich unbegrenzte Gesetze. Aber diese Unterschiede sind fließend, weil Wissenschaftler raum-zeitlich begrenzte Aussagen brauchen, um ihre All-Aussagen zu überprüfen, und Journalisten sich immer häufiger auf das Feld der allgemeinen Gesetzes-Aussagen wagen oder doch zumindest Kausalinterpretationen für soziale Phänomene anbieten. Der zweite Unterschied besteht darin, dass die Wissenschaft weitgehend professionalisiert ist (zumindest gilt dies uneingeschränkt für die Naturwissenschaften und die Medizin), was ihr relativ klare Abgrenzungs- und Güte-Kriterien beschert hat. Diese fehlen weitgehend im Journalismus.
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  6. Schröter, H.G.: Wie Google mit der Suche Milliarden findet : Das Internet-Unternehmen verdient viel Geld mit Werbung im Web, hat aber weit mehr zu bieten (2006) 0.07
    0.069325574 = product of:
      0.17331393 = sum of:
        0.03911765 = weight(_text_:suchmaschine in 2297) [ClassicSimilarity], result of:
          0.03911765 = score(doc=2297,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.21864946 = fieldWeight in 2297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2297)
        0.009759822 = product of:
          0.019519644 = sum of:
            0.019519644 = weight(_text_:online in 2297) [ClassicSimilarity], result of:
              0.019519644 = score(doc=2297,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20327234 = fieldWeight in 2297, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2297)
          0.5 = coord(1/2)
        0.045672327 = weight(_text_:soziale in 2297) [ClassicSimilarity], result of:
          0.045672327 = score(doc=2297,freq=2.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.23625913 = fieldWeight in 2297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2297)
        0.019256605 = weight(_text_:software in 2297) [ClassicSimilarity], result of:
          0.019256605 = score(doc=2297,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.15340936 = fieldWeight in 2297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2297)
        0.0225711 = weight(_text_:web in 2297) [ClassicSimilarity], result of:
          0.0225711 = score(doc=2297,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.21858418 = fieldWeight in 2297, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2297)
        0.036936436 = weight(_text_:site in 2297) [ClassicSimilarity], result of:
          0.036936436 = score(doc=2297,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.21246605 = fieldWeight in 2297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2297)
      0.4 = coord(6/15)
    
    Content
    "Google, so betont die größte Internet-Suchmaschine immer wieder, möchte die Informationen der Welt möglichst vielen Menschen zugänglich zu machen. Um das zu erreichen, entwickelten Larry Page und Sergey Brin, die die Firma im September 1998 gründeten, in einem Studentenwohnheim einen neuen Algorithmus für die Online-Suche. Das Unternehmen aus dem kalifornischen Mountain View ist aber auch eine Geldmaschine. Im zweiten Quartal dieses Jahres erhöhte Google den Umsatz im Jahresvergleich um 77 Prozent und den Nettoprofit noch stärker um 110 Prozent. Ende Juni zählten die Kalifornier rund um den Globus fast 8000 Beschäftigte und verfügten über flüssige Mittel von reichlich 9,8 Milliarden Dollar. Aktienkurs verfünffacht Der Geldsegen verdankt sich der OnlineWerbung. So können Firmen bei Google Anzeigen schalten, die zum Suchbegriff des Nutzers passen. Beispiel: Wer Mallorca in die Google-Maske tippt, sieht neben der Trefferliste auf der Google-Website Annoncen über Mallorca-Reisen oder Fincas auf der Insel. Darüberhinaus versorgt Google auch Betreiber anderer Web-Sites mit Werbeanzeigen. Damit nicht genug. Google plant, Werbung auch auf Handys zu senden. Reklame im Radio und Anzeigenverkauf in Printmedien stehen ebenfalls auf dem Programm. Als Google im August 2004 an die Börse ging, machten Experten den Erfolg der Aktie vor allem von der Entwicklung der Online-Werbung generell und der Fähigkeit von Google abhängig, möglichst viele Anzeigen an Werbetreibende zu verkaufen. Der Ausgabekurs betrug damals 85 Dollar. Am Tag nach Bekanntgabe der You Tube-Übernahme, die in Aktien bezahlt wird, startete das Google-Papier mit rund 432 Dollar. Doch es ging an der Börse nicht immer nur bergauf. So brach der Kurs im Februar massiv ein, weil Google die Gewinnschätzung von Analysten verfehlte. Und immer wieder bemängeln Börsianer, dass das Unternehmen fast, nur mit Werbung sein Geld verdient. Dabei hat Gaogle längst eine Menge mehr zu bieten, als Internet-Suche und -Reklame, auch wenn sich dies nicht sofort und direkt in Dollar und Cent auszahlt. Die Kalifornier brachten den E-MailDienst Gmail heraus, das soziale Netzwerk Orkut, die Geo-Software Google Earth, das Chatprogramm Talk, den FestplattenDurchsucher Desktop, die Surf-Ergänzung Toolbar, das Fotoarchiv Picasa und und und. All dies verschenkt das Unternehmen an die Nutzer - und hofft auf mehr Besucher auf seinen Webseiten und mehr Gelegenheiten für Werbung. In jüngerer Zeit folgten unter anderem Google-Video, ein Kalender im Internet und ein Online-Büroprogramm. Nutzer können mit Google nicht nur suchen, sondern auch Texte schreiben, Fotos tauschen oder Dateienspeichern. Erfolg und Expansion von Google wecken aber auch Sorgen. So warnen Datenschützer, dass Google Nutzerprofile erstellen und verkaufen könnte. Die Grünen bewerten die Dominanz einzelner Suchmaschinen - Google hat in Deutschland einen Marktanteil von 85 Prozent - kritisch. Sie befürchten, dass viele Informationen verborgen bleiben und und eine einheitliche "Such"-Meinung entsteht. Kritik hagelte es auch, als Google (Firmenmotto: "Tu nichts Böses") eine chinesische Web-Site startete und sich den Zensurbestimmungen Pekings unterwarf."
  7. ap: Software bietet Surftipps (2003) 0.06
    0.058840465 = product of:
      0.22065173 = sum of:
        0.08941177 = weight(_text_:suchmaschine in 1990) [ClassicSimilarity], result of:
          0.08941177 = score(doc=1990,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.4997702 = fieldWeight in 1990, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0625 = fieldNorm(doc=1990)
        0.012879624 = product of:
          0.025759248 = sum of:
            0.025759248 = weight(_text_:online in 1990) [ClassicSimilarity], result of:
              0.025759248 = score(doc=1990,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2682499 = fieldWeight in 1990, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1990)
          0.5 = coord(1/2)
        0.07623639 = weight(_text_:software in 1990) [ClassicSimilarity], result of:
          0.07623639 = score(doc=1990,freq=6.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.6073436 = fieldWeight in 1990, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=1990)
        0.042123944 = weight(_text_:web in 1990) [ClassicSimilarity], result of:
          0.042123944 = score(doc=1990,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.4079388 = fieldWeight in 1990, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=1990)
      0.26666668 = coord(4/15)
    
    Content
    "Informatiker der Universität Leipzig haben eine kostenlose Software entwickelt, die beim Surfen inhaltlich ähnliche Seiten nennt. Nextlinks erlaube es, sich interessenbezogen im Web zu bewegen, ohne die eigenen Interessen ausdrücklich beschreiben zu müssen. Die kostenlose Software nutzt Algorithmen, die die Abteilung Automatische Sprachverarbeitung am Institut für Informatik entwickelt hat. Wie bei einer Suchmaschine werden zunächst viele Millionen Web-Seiten ausgewertet. Statistische Verfahren ermitteln Ähnlichkeiten. Weitere Informationen online unter wortschatz.uni-leipzig.de/nextlinks/. "
  8. ap: Konkurrenz für Google : Neue Suchmaschine "Teoma" gestartet (2002) 0.06
    0.058676485 = product of:
      0.2200368 = sum of:
        0.094835505 = weight(_text_:suchmaschine in 187) [ClassicSimilarity], result of:
          0.094835505 = score(doc=187,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.53008634 = fieldWeight in 187, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=187)
        0.009659718 = product of:
          0.019319436 = sum of:
            0.019319436 = weight(_text_:online in 187) [ClassicSimilarity], result of:
              0.019319436 = score(doc=187,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20118743 = fieldWeight in 187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=187)
          0.5 = coord(1/2)
        0.031592958 = weight(_text_:web in 187) [ClassicSimilarity], result of:
          0.031592958 = score(doc=187,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.3059541 = fieldWeight in 187, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=187)
        0.08394862 = sum of:
          0.058227178 = weight(_text_:analyse in 187) [ClassicSimilarity], result of:
            0.058227178 = score(doc=187,freq=2.0), product of:
              0.16670908 = queryWeight, product of:
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.031640913 = queryNorm
              0.3492742 = fieldWeight in 187, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.046875 = fieldNorm(doc=187)
          0.02572144 = weight(_text_:22 in 187) [ClassicSimilarity], result of:
            0.02572144 = score(doc=187,freq=2.0), product of:
              0.110801086 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.031640913 = queryNorm
              0.23214069 = fieldWeight in 187, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=187)
      0.26666668 = coord(4/15)
    
    Content
    "Die Suchmaschine Google gilt oft als der beste Weg, um schnell etwas im Internet zu finden. Das war einmal, behauptet Apostolos Gerasoulis, jetzt gebe es www.teoma. com. "Wir sind die nächste Generation der Suchmaschinen", verspricht der Mathematikprofessor. Die Web-Sites von Google und Teoma sind ähnlich aufgemacht. Beide bieten eine weitgehend weiße Startseite mit wenigen, klaren Farben. Beide Suchmaschinen benutzen bei ihrer Arbeit zur Analyse der Anfragen einen komplizierten Algorithmus. Teoma hält den eigenen Ansatz aber für besser, weil dabei das Internet in Gruppen von Online-Gemeinschaften unterteilt wird. Dies liefere bessere Ergebnisse und erlaube eine nützlichere Auswahl. Zu einem Suchbegriff erscheinen bei Teoma zuerst links oben die bezahlten Verweise, darunter dann' alle anderen gefundenen Web-Seiten. Rechts erscheinen Vorschläge zur Verfeinerung der Suchanfrage, darunter manchmal Links von "Experten und Enthusiasten". Diese qualifizierten Antworten sind eine der Stärken, mit denen Teoma wuchern möchte. Sie sind besonders für Anfänger nützlich, die nach allgemeinen Themen wie Afrika" oder "Fußball" suchen. Allerdings könnte dieser Ergebnisdienst Nutzer auch überfordern, gerade wenn sie an das einfache Google gewöhnt seien, kritsiert Rob Lancaster von der Yankee Group."
    Date
    3. 5.1997 8:44:22
  9. Schneider, R.: OPACs, Benutzer und das Web (2009) 0.06
    0.05801937 = product of:
      0.29009685 = sum of:
        0.1185931 = sum of:
          0.03642908 = weight(_text_:online in 2905) [ClassicSimilarity], result of:
            0.03642908 = score(doc=2905,freq=4.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.37936267 = fieldWeight in 2905, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
          0.08216401 = weight(_text_:recherche in 2905) [ClassicSimilarity], result of:
            0.08216401 = score(doc=2905,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.47908637 = fieldWeight in 2905, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
        0.059572253 = weight(_text_:web in 2905) [ClassicSimilarity], result of:
          0.059572253 = score(doc=2905,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5769126 = fieldWeight in 2905, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2905)
        0.111931495 = sum of:
          0.07763624 = weight(_text_:analyse in 2905) [ClassicSimilarity], result of:
            0.07763624 = score(doc=2905,freq=2.0), product of:
              0.16670908 = queryWeight, product of:
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.031640913 = queryNorm
              0.46569893 = fieldWeight in 2905, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
          0.034295253 = weight(_text_:22 in 2905) [ClassicSimilarity], result of:
            0.034295253 = score(doc=2905,freq=2.0), product of:
              0.110801086 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.031640913 = queryNorm
              0.30952093 = fieldWeight in 2905, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
      0.2 = coord(3/15)
    
    Abstract
    Der Artikel betrachtet anhand einer Studie zum Benutzerverhalten bei der Online-Katalogrecherche den gegenwärtigen Stellenwert und das zukünftige Potential der Web-OPACs. Dabei werden zunächst die Ergebnisse einer quantitativen Logfile-Analyse sowie qualitativer Benutzertests erörtert, bevor aktuelle Entwicklungen der Webtechnologie, die unter den Schlagworten Web 2.0 und Web 3.0 propagiert werden, im Zusammenhang mit der Online-Recherche und der Entwicklung neuartiger Suchverfahren kurz diskutiert werden.
    Date
    22. 2.2009 18:50:43
  10. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.05
    0.052084096 = product of:
      0.15625228 = sum of:
        0.058074653 = weight(_text_:suchmaschine in 2430) [ClassicSimilarity], result of:
          0.058074653 = score(doc=2430,freq=6.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.3246103 = fieldWeight in 2430, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
        0.05723495 = sum of:
          0.013660905 = weight(_text_:online in 2430) [ClassicSimilarity], result of:
            0.013660905 = score(doc=2430,freq=4.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.142261 = fieldWeight in 2430, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
          0.043574046 = weight(_text_:recherche in 2430) [ClassicSimilarity], result of:
            0.043574046 = score(doc=2430,freq=4.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.25407392 = fieldWeight in 2430, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2430)
        0.023342533 = weight(_text_:software in 2430) [ClassicSimilarity], result of:
          0.023342533 = score(doc=2430,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.18596025 = fieldWeight in 2430, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
        0.011169797 = weight(_text_:web in 2430) [ClassicSimilarity], result of:
          0.011169797 = score(doc=2430,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.108171105 = fieldWeight in 2430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
        0.00643036 = product of:
          0.01286072 = sum of:
            0.01286072 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
              0.01286072 = score(doc=2430,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.116070345 = fieldWeight in 2430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2430)
          0.5 = coord(1/2)
      0.33333334 = coord(5/15)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    - Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."
    Date
    22. 7.2004 9:40:10
  11. Burblies, C.: vascoda - was lange währt, wird endlich gut!? (2006) 0.05
    0.047910046 = product of:
      0.14373013 = sum of:
        0.033529416 = weight(_text_:suchmaschine in 6036) [ClassicSimilarity], result of:
          0.033529416 = score(doc=6036,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.18741383 = fieldWeight in 6036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6036)
        0.05723495 = sum of:
          0.013660905 = weight(_text_:online in 6036) [ClassicSimilarity], result of:
            0.013660905 = score(doc=6036,freq=4.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.142261 = fieldWeight in 6036, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6036)
          0.043574046 = weight(_text_:recherche in 6036) [ClassicSimilarity], result of:
            0.043574046 = score(doc=6036,freq=4.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.25407392 = fieldWeight in 6036, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6036)
        0.023342533 = weight(_text_:software in 6036) [ClassicSimilarity], result of:
          0.023342533 = score(doc=6036,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.18596025 = fieldWeight in 6036, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6036)
        0.018453438 = weight(_text_:evaluation in 6036) [ClassicSimilarity], result of:
          0.018453438 = score(doc=6036,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.139036 = fieldWeight in 6036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6036)
        0.011169797 = weight(_text_:web in 6036) [ClassicSimilarity], result of:
          0.011169797 = score(doc=6036,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.108171105 = fieldWeight in 6036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6036)
      0.33333334 = coord(5/15)
    
    Content
    Eine der wesentlichen Aufgaben des Vereins wird es sein, ein tragfähiges Geschäftsmodell für vascoda zu entwickeln. Die Zusammenarbeit der unterschiedlichen Partner wird inhaltlich über so genannte Kompetenzzentren organisiert. Zuständig für den Betrieb und die Weiterentwicklung des vascoda Portals ist seit April 2006 das hbz in Köln. Die Verantwortung für Evaluation und Qualitätsmanagement teilen sich die ULB Münster und die ZB MED in Köln. Die Geschäftsstelle vascoda, zuständig für Koordinierung, Vereinsmanagement und zentrales Marketing ist an der TIB in Hannover angesiedelt. Diese Kompetenzzentren werden bis Ende 2007 vom BMBF gefördert. Unter der Federführung der SUB Göttingen werden gemeinsam mit der SUB Hamburg und Der Deutschen Bibliothek in Frankfurt am Main die Themenbereiche "Metadaten, Standards und Heterogenitätsbehandlung" bearbeitet. Dieser Bereich wird durch die DFG gefördert. Ebenso ein Kompetenzzentrum zur Homogenisierung der Fachangebote. Hier soll durch einen intensivierten Wissenstransfer zwischen den beteiligten Einrichtungen und durch die Entwicklung neuer einheitlicher Funktionalitäten der Auftritt der Fachportale übersichtlicher gestaltet werden. Federführend ist hier die ZBW in Kiel, die gemeinsam mit dem IZ Sozialwissenschaften in Bonn dieses Aufgabenfeld bearbeitet. Das Ziel von vascoda ist es, mit dem gemeinsamen Portal eine fachübergreifende Recherche in verteilten einschlägigen Datenbeständen mit dem Zugriff auf die gewünschten Dokumente zu verknüpfen und damit den Nutzerinnen und Nutzern Orientierung im zum Teil unüberschaubaren "Anbieterdschungel" zu bieten. vascoda bietet über die gemeinsame Suche Zugriff auf Volltexte, Internetressourcen, bibliographische und andere Fachdatenbanken sowie auf fachspezifische Suchmaschinen. Die einzelnen Fachportale wiederum bieten den Zugriff auf Internet Ressourcen, Bibliotheks-OPACs, Online Contents Datenbanken, Elektronische Zeitschriften, Dokumentlieferdienste, Online-Tutorien und vieles mehr. Die primäre Zielgruppe von vascoda sind Nutzerinnen und Nutzer aus Forschung und Lehre in Hochschulen, Bibliotheken, aber auch außeruniversitären Forschungseinrichtungen sowie in der Wirtschaft.
    Funktionsweise Momentan basiert die vascoda-Suche auf einer Metasuche in verschiedenen Datenbanken (27 einzelne Datenbanken im Herbst 2005). Über eine Web-ServiceArchitektur werden diese Datenbanken abgefragt und liefern die Antworten. Die Verknüpfung zum Volltext wird dort - wo sie bereits realisiert ist - durch die Anbieter, und parallel durch die Elektronische Zeitschriften Bibliothek (EZB) gewährleistet. Diese Struktur soll zukünftig durch eine Verfügbarkeitsrecherche ersetzt werden, die dann eine Übersicht über die unterschiedlichen Zugriffsmöglichkeiten auf den Volltext bietet. Das Konzept der Verfügbarkeitsrecherche und der Einbindung vorhandener lokaler Linkresolver sieht in der vascoda-Ergebnisanzeige für jeden Treffer einen Verfügbarkeitsbutton vor. Über diesen Button wird dann eine Standortauswahl eingeblendet, über die der Nutzer seine Institution auswählen kann. Nach der jeweiligen Zuordnung wird der Nutzer/die Nutzerin direkt zum OpenURL-Resolver seiner Einrichtung weitergeleitet. Nutzerinnen, die keine Auswahl treffen können, bekommen via vascoda-Portal eine standortunabhängige Verfügbarkeitsrecherche auf Basis der nationalen Nachweissysteme (z. B. EZB, ZDB, Verbundkataloge, ...) angeboten. Zukünftig wird vascoda umfassend durch mehr Content erweitert werden. So sollen eine Vielzahl der Angebote der einzelnen Fachportale sowie die Angebote der Bibliotheksverbünde integriert werden. Auf diese Weise wird eine gemeinsame Suche über alle relevanten Bestände möglich. Ferner wird in Zukunft intelligente Suchmaschinentechnologie bei vascoda zum Einsatz kommen, die gegenüber der bisher eingesetzten klassischen Metasuche eine Reihe von Vorteilen aufweist: Es werden Antwortzeiten im Millisekundenbereich erreicht, die Recherche wird durch den Einsatz von linguistischen Verfahren auf der Ebene der Indexierung optimiert, es erfolgt eine automatische Rechtschreibkorrektur bzw. die Einblendung von Rechtschreibvorschlägen, die Ergebnisliste kann durch ein Ranking der Treffer nach einstellbaren Kriterien (nach Relevanz, Erscheinungsjahr, Dokumenttyp, Systematik, Sprache etc.) aufbereitet werden. Das hbz Köln wird in der Erprobungsphase die Software FAST Data Search zum Einsatz bringen. Diese Software ist bislang u.a. schon bei www.scirus.com und bei der hbz-Suchmaschine (http://suchen.hbz-nrw.de) im Einsatz."
  12. Schuster, M.; Rappold, D.: Social Semantic Software : was soziale Dynamik im Semantic Web auslöst (2006) 0.05
    0.046444274 = product of:
      0.23222136 = sum of:
        0.10439389 = weight(_text_:soziale in 5502) [ClassicSimilarity], result of:
          0.10439389 = score(doc=5502,freq=2.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.5400209 = fieldWeight in 5502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0625 = fieldNorm(doc=5502)
        0.07623639 = weight(_text_:software in 5502) [ClassicSimilarity], result of:
          0.07623639 = score(doc=5502,freq=6.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.6073436 = fieldWeight in 5502, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=5502)
        0.051591087 = weight(_text_:web in 5502) [ClassicSimilarity], result of:
          0.051591087 = score(doc=5502,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.49962097 = fieldWeight in 5502, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=5502)
      0.2 = coord(3/15)
    
    Abstract
    Dieser Artikel befasst sich mit der Entwicklung, dem Wesen und der Zukunft von Social Software. Es wird dabei der Versuch unternommen, den Beitrag von Weblogs, Wikis und Personal Publishing insgesamt auf die Entwicklung des Information Management und den Konvergenzpfad mit der Vision des Semantic Web, hin zu einer Social Semantic Software zu bewerten.
    Source
    Semantic Web: Wege zur vernetzten Wissensgesellschaft. Hrsg.: T. Pellegrini, u. A. Blumauer
  13. Hartknopf, A.: ¬Die Kugel für Google? : Alternative Suchwerkzeuge (2006) 0.05
    0.046073206 = product of:
      0.13821961 = sum of:
        0.039514795 = weight(_text_:suchmaschine in 4733) [ClassicSimilarity], result of:
          0.039514795 = score(doc=4733,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.22086932 = fieldWeight in 4733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4733)
        0.005692044 = product of:
          0.011384088 = sum of:
            0.011384088 = weight(_text_:online in 4733) [ClassicSimilarity], result of:
              0.011384088 = score(doc=4733,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.11855084 = fieldWeight in 4733, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4733)
          0.5 = coord(1/2)
        0.013754718 = weight(_text_:software in 4733) [ClassicSimilarity], result of:
          0.013754718 = score(doc=4733,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.10957812 = fieldWeight in 4733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4733)
        0.033561062 = weight(_text_:web in 4733) [ClassicSimilarity], result of:
          0.033561062 = score(doc=4733,freq=26.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.32501373 = fieldWeight in 4733, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4733)
        0.045696992 = weight(_text_:site in 4733) [ClassicSimilarity], result of:
          0.045696992 = score(doc=4733,freq=6.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.26285857 = fieldWeight in 4733, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4733)
      0.33333334 = coord(5/15)
    
    Abstract
    Das Web wächst rasant und GoogLe findet offensichtlich immer weniger. Eine Reihe raffinierter Tools will Abhilfe schaffen.
    Content
    "Für viele ist es schon Gewohnheit: Wer im Web etwas sucht, geht zu Google. Der Suchdienst hat in kürzester Zeit die Netzwelt erobert. Wer heute im Netz etwas sucht, sagt: das googel ich. Doch nicht immer ist die Inanspruchnahme des Generalisten der Weisheit letzter Schluss. Eine Anzahl von Spezialisten versucht mit witzigen Angeboten, Google die Kugel zu geben. Sicher haben Sie so etwas auch schon erlebt: Kurz vor Feierabend sind Sie beim halbberuflichen Surfen auf eine supertolle Site mit Tipps zur Marathon-Vorbereitung gestoßen. Abends geben Sie bei Ihren Lauffreunden damit an. Die lachen Sie später aus, weil sie von den tollen Informationen nichts gefunden haben. Die Inhalte des Web ändern sich manchmal rasant schnell und vor allem zu unvorsehbaren Zeitpunkten. Wer nicht Gefahr laufen möchte, stundenlang mit wachsender Verzweiflung nach Inhalten zu suchen, von denen nur noch das persönliche Gedächtnis eine vage Ahnung behalten hat, kann jetzt bei Yahoo ein eigenes Webarchiv anlegen. Die "Mein Web" genannte Funktion speichert mit einem Wort gesagt die gefundenen Webseiten für Sie und macht sie so dauerhaft verfügbar. Gegen das Vergessen Nach der Anmeldung bei Yahoo ist dieser Dienst kostenlos nutzbar. Sie können in "Mein Web" Ordner anlegen und Ihre Lesezeichen so sortieren. Unterordner sind derzeit leider nicht möglich. Wer möchte, kann seine Browser-Lesezeichen importieren. Das funktioniert mit den Bookmarks von Internet Explorer, Firefox und Netscape. Auf diese Weise sind die Favoriten von jedem Internet-fähigen Rechner aus zugänglich. Über die Yahoo-Toolbar oder ein leicht zu installierendes Bookmarklet lassen sich von beliebigen StelLen im Web nun Seiten zu "Mein Web" hinzufügen. Yahoo macht eine Kopie des HTML-Codes und archiviert sie im gewünschten Ordner. Oder Sie benutzen die Yahoo-Suchmaske und speichern Treffer direkt aus der Ergebnisliste heraus. Sie können die gespeicherten Seiten nach Datum, Titel, URL und Art der Suche durchsuchen. Außerdem lassen sich beliebige Gruppen von Treffern veröffentlichen, sodass jeder über eine maskierte ID, die seine privaten Ordner schützt, darauf zugreifen kann. Unerwünschte Ergebnisse können blockiert werden und verschwinden so bei künftigen Suchen aus den Ergebnissen. Leider speichert "Mein Web" nur den HTMLCode der archivierten Seiten. Es kann also gut sein, dass verlinkte Bilder, Frames, Flash-Animationen usw. später nicht mehr verfügbar sind. Auch mit der richtigen Wiedergabe der gespeicherten Seiten tut sich das noch in der Betaphase befindliche "Mein Web" mitunter schwer. Beim ersten Ausprobieren wurde aus manchem Layout ein befremdliches Durcheinander. Vor allem deshalb begeistert der an sich sinnvolle Dienst noch nicht vollends.
    Dranbleiben Der amerikanische Dienst PubSub verkörpert gewissermaßen die Gegenidee zu Yahoos Seitenspeicher. Bei PubSub geht es in erster Linie darum, über neue Treffer zu einer Suchanfrage informiert zu werden. Google und andere Suchmaschinen sammeln Webseiten, um sie bei Suchanfragen zur Verfügung stellen zu können. PubSub sammelt Suchanfragen, um für diese zutreffende Seiten zur Verfügung stellen zu können. Die Treffer kommen von einer proprietären Suchmaschine, die nach eigenen Angaben über 17 Millionen Weblogs, 50.000 Newsgroups und sämtliche EDGAR-Filings umfasst. Bei letzteren handelt es sich um ein Projekt der amerikanischen Börsenaufsichtsbehörde SEC; die Online-Registratur (Electronic Data Gathering and Retrieval Project) umfasst eine Auflistung von Quartals- und Jahresberichten und den dazugehörigen Dokumenten von an der Börse notierten US-Firmen. Es handelt sich also in vielen Fällen um häufig aktualisierte Inhalte. PubSub speichert die nach einer kostenlosen Anmeldung gemachten Suchanfragen und aktualisiert die Ergebnisliste, sobald ein neuer Treffer zu den angefragten Begriffen eingetroffen ist. Aktuelle Ergebnisse lassen sich direkt auf der PubSub-Site, über einen RSS-Feed-Reader oder die für den Internet Explorer erhältliche proprietäre SideBar abfragen. Die im Grunde gute Idee führt jedoch (noch) zu bescheidenen Ergebnissen. Eine Sprachauswahl (vergleichbar Googles "Seiten auf Deutsch") ist nicht vorgesehen. Deutschsprachige Suchanfragen scheinen insgesamt so gut wie sinnlos. Selbst auf die Anfrage "George Bush" kamen auf den ersten Blick nur wenig relevante Treffer. Es bleibt also, wenigstens für Deutsch sprechende Nutzer, vorläufig fraglich, ob der noch junge Dienst wirklich zu einer sinnvollen Ergänzung zum Prinzip der Suchmaschinen beitragen wird.
    Das geht tief Ein kleiner Mythos wird häufig aus dem so genannten "deep web" gemacht. Gemeint sind damit all jene Inhalte, die Suchmaschinen niemals listen, weil ihre Crawler sie nicht erreichen - hauptsächlich aus Datenbanken dynamisch generierte Contents und damit eine riesige Menge von Seiten. Bis zu 500-mal größer soll das "unsichtbare" Web sein. Der Suchdienst Complete Planet will beim Entdecken des Verborgenen helfen. Er listet derzeit 70.000 Datenbanken in über 40 Kategorien von "Agriculture" bis "Weather". Zu jedem Angebot gibt es eine englische Zusammenfassung. Da es jedoch praktisch kaum machbar ist, die teilweise über 100 Datenbanken zu einem Thema auf diese Weise abzuarbeiten, lassen sich die Beschreibungstexte nach Stichworten durchsuchen. Diese Suche lässt sich auf die gesamte Complete-Planet-Datenbank ausweiten oder auf eine Kategorie beschränken. Wie häufig sind auch hier diejenigen im Vorteil, die ihre Infos aus dem englischen Sprachraum beziehen können. Turbo10 ist ein Suchdienst, der nach eigenen Angaben 804 "deep net engines" abfragt, über die zunächst wenig Genaues zu erfahren ist. Die sparsam aufgemachte Site schmeißt auch sonst nicht gerade mit Selbstauskünften um sich. Dafür bietet sie ein sehr übersichtlich organisiertes Ergebnisfenster. Die Ergebnisse werden nach "Clustern" sortiert: Zum Suchbegriff "dvd brenner" etwa lieferte Turbo10 u. a. die Kategorien "hardware", "shops" oder "tests". Auch die abgefragten Suchdienste lassen sich hier mit der Zahl ihrer Treffer auflisten. Interessant ist die Möglichkeit, sich aus der Liste dervon Turbo10 genutzten Suchmaschinen eine eigene Kollektion zusammenzustellen. Dazu muss der Benutzer allerdings seine E-Mail-Adresse herausrücken. Für die tiefgehenden Anfragen wird außerdem einiges an kostenpflichtiger Software angeboten, die das Suchen erleichtern soll.
    Im deutschsprachigen Bereich betätigt sich zum Beispiel Bingooo in diesem Feld. Spezialisierte 'Agenten' fragen Informationen aus Bereichen wie Einkaufen, Reisen, Wissen oder Nachrichten ab und geben sie aufbereitet wieder. Eine Trial-Version der Anwendung ist kostenfrei verfügbar. Das mit zusätzlichen Funktionen ausgestattete Programm kostet rund 57 Euro. Viel bekommen Als Beispiel einer Meta-Suchmaschine sei der Metaspinner erwähnt. Metaspinner richtet Ihre Anfrage an 18 einzelne Suchdienste, darunter Alltheweb, Altavista, T-Online (Google) und Yahoo. Wer möchte, kann aus diesen Diensten eine Auswahl treffen. Außerdem finden sich direkt in der Suchmaske Buttons zum Einbeziehen von Wikipedia, eBay, Preispiraten und Amazon in die Suche. Auf Wunsch lassen sich die Ergebnisse in Kategorien sortieren. Durch die zahlreichen Konfigurationsmöglichkeiten wirkt der Metaspinner einem typischen Problem der Metasuchmaschinen entgegen: Werviele Dienste anfragt, bekommt viele Ant-worten. Die manchmal sowieso schon mühevolle Suche nach brauchbaren Treffern kann bei Mehrfachanfragen nämlich noch mühevoller werden. Google ist also nicht alles. Es gibt im Netz eine Reihe von Tools, die vor allem bei Spezialinteressen oder-fragen helfen. Vieles davon ist jedoch auf das englischsprachige Web konzentriert. Für viele Einzelfragen schadet es nach wie vor nicht, die entsprechenden Datenbanken zu kennen. Neue Angebote wie Yahoos "Mein Web" weisen in eine interessante Richtung, sind aber noch verbesserungswürdig."
  14. Glogau, R.: Suchmaschine mit Köpfchen (1996) 0.05
    0.04536273 = product of:
      0.22681364 = sum of:
        0.15805918 = weight(_text_:suchmaschine in 4835) [ClassicSimilarity], result of:
          0.15805918 = score(doc=4835,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.8834773 = fieldWeight in 4835, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=4835)
        0.01609953 = product of:
          0.03219906 = sum of:
            0.03219906 = weight(_text_:online in 4835) [ClassicSimilarity], result of:
              0.03219906 = score(doc=4835,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.33531237 = fieldWeight in 4835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4835)
          0.5 = coord(1/2)
        0.052654933 = weight(_text_:web in 4835) [ClassicSimilarity], result of:
          0.052654933 = score(doc=4835,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5099235 = fieldWeight in 4835, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=4835)
      0.2 = coord(3/15)
    
    Abstract
    Der Begriff 'Volltextsuche im Web' klingt langweilig. Doch wer möchte nicht gerne wissen, welche WWW-Seiten ein Link auf die eigene Homepage enthalten. Was sich alles finden läßt, zeigt dieser Crashkurs anhand der schnellsten Suchmaschine im Web
    Source
    PC-Online. 1996, H.8, S.80-81
  15. Kaizik, A.; Gödert, W.; Milanesi, C.: Erfahrungen und Ergebnisse aus der Evaluierung des EU-Projektes EULER im Rahmen des an der FH Köln angesiedelten Projektes EJECT (Evaluation von Subject Gateways des World Wide Web (2001) 0.04
    0.044536855 = product of:
      0.1670132 = sum of:
        0.008049765 = product of:
          0.01609953 = sum of:
            0.01609953 = weight(_text_:online in 5801) [ClassicSimilarity], result of:
              0.01609953 = score(doc=5801,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.16765618 = fieldWeight in 5801, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5801)
          0.5 = coord(1/2)
        0.061511453 = weight(_text_:evaluation in 5801) [ClassicSimilarity], result of:
          0.061511453 = score(doc=5801,freq=8.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.4634533 = fieldWeight in 5801, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.01861633 = weight(_text_:web in 5801) [ClassicSimilarity], result of:
          0.01861633 = score(doc=5801,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.07883566 = sum of:
          0.048522647 = weight(_text_:analyse in 5801) [ClassicSimilarity], result of:
            0.048522647 = score(doc=5801,freq=2.0), product of:
              0.16670908 = queryWeight, product of:
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.031640913 = queryNorm
              0.29106182 = fieldWeight in 5801, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5801)
          0.03031301 = weight(_text_:22 in 5801) [ClassicSimilarity], result of:
            0.03031301 = score(doc=5801,freq=4.0), product of:
              0.110801086 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.031640913 = queryNorm
              0.27358043 = fieldWeight in 5801, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5801)
      0.26666668 = coord(4/15)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu erreichen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele: durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen; diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden hier in verkürzter Form vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist
    Date
    22. 6.2002 19:42:22
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Ladwig, E.: Verborgenes Wissen (1999) 0.04
    0.044427108 = product of:
      0.22213554 = sum of:
        0.10792326 = sum of:
          0.025759248 = weight(_text_:online in 3908) [ClassicSimilarity], result of:
            0.025759248 = score(doc=3908,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.2682499 = fieldWeight in 3908, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0625 = fieldNorm(doc=3908)
          0.08216401 = weight(_text_:recherche in 3908) [ClassicSimilarity], result of:
            0.08216401 = score(doc=3908,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.47908637 = fieldWeight in 3908, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0625 = fieldNorm(doc=3908)
        0.029786127 = weight(_text_:web in 3908) [ClassicSimilarity], result of:
          0.029786127 = score(doc=3908,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2884563 = fieldWeight in 3908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=3908)
        0.08442614 = weight(_text_:site in 3908) [ClassicSimilarity], result of:
          0.08442614 = score(doc=3908,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.48563668 = fieldWeight in 3908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.0625 = fieldNorm(doc=3908)
      0.2 = coord(3/15)
    
    Abstract
    Das Internet als Quelle zum Nachschlgen - die Vorstellung verkommt gerne zur Farce, wenn es um gezielte Recherche geht. SBO zeigt, wie Sie mit Suchdiensten im Web finden, anstatt nur zu suchen, und wie Sie Ihrer Site einen guten Listenplatz sichern
    Source
    Screen Business Online. 1999, H.4, S.32-37
  17. Wyss, V.; Keel, G.: Google als Trojanisches Pferd? : Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität (2007) 0.04
    0.04171936 = product of:
      0.20859678 = sum of:
        0.06705883 = weight(_text_:suchmaschine in 385) [ClassicSimilarity], result of:
          0.06705883 = score(doc=385,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.37482765 = fieldWeight in 385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=385)
        0.030811504 = product of:
          0.061623007 = sum of:
            0.061623007 = weight(_text_:recherche in 385) [ClassicSimilarity], result of:
              0.061623007 = score(doc=385,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.35931477 = fieldWeight in 385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=385)
          0.5 = coord(1/2)
        0.110726446 = weight(_text_:soziale in 385) [ClassicSimilarity], result of:
          0.110726446 = score(doc=385,freq=4.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.57277864 = fieldWeight in 385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.046875 = fieldNorm(doc=385)
      0.2 = coord(3/15)
    
    Abstract
    Ohne Suchmaschinen bliebe das Internet ein ungeordneter Datenfriedhof mit all den bekannten Mängeln zufällig aufgehäufter Informationshalden, insbesondere ohne Relevanzstruktur. Auch für Journalisten wird das Internet erst durch Suchmaschinen zum brauchbaren Netz. Suchmaschinen haben eine wesentliche Bedeutung für die Recherchepraktiken und sie haben das Potenzial, die soziale Struktur des Journalismus wesentlich mitzuprägen oder gar zu verändern. Offensichtlich wird nämlich, dass der Suchmaschine nicht nur eine suchende, sondern auch eine ordnende Funktion zukommt - sie ist eben Selektionsmaschine. Die Selektionsleistung der technischen Gatekeeper löst aber nicht nur Probleme, weil beispielsweise das gezielte Suchen von Informationen rasch und kostengünstig erfolgen kann; Suchmaschinen schaffen auch neue Probleme, mit denen der Journalismus konfrontiert ist. Das vorliegende Kapitel diskutiert die Frage, inwiefern sich die Internetrecherche von Journalisten auf die journalistische Qualität auswirkt. Im Zentrum des vorliegenden Kapitels steht die theoretische Sichtweise auf den möglichen Einfluss der Anwendung von Suchmaschinen auf die soziale Praxis bzw. auf die Struktur des Journalismus, und damit auch auf die Produktion der journalistischen Qualität.
  18. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.04
    0.04162465 = product of:
      0.12487394 = sum of:
        0.044705886 = weight(_text_:suchmaschine in 4871) [ClassicSimilarity], result of:
          0.044705886 = score(doc=4871,freq=8.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.2498851 = fieldWeight in 4871, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.041928988 = sum of:
          0.012879624 = weight(_text_:online in 4871) [ClassicSimilarity], result of:
            0.012879624 = score(doc=4871,freq=8.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.13412495 = fieldWeight in 4871, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
          0.029049365 = weight(_text_:recherche in 4871) [ClassicSimilarity], result of:
            0.029049365 = score(doc=4871,freq=4.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.16938262 = fieldWeight in 4871, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
        0.019059097 = weight(_text_:software in 4871) [ClassicSimilarity], result of:
          0.019059097 = score(doc=4871,freq=6.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.1518359 = fieldWeight in 4871, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.014893063 = weight(_text_:web in 4871) [ClassicSimilarity], result of:
          0.014893063 = score(doc=4871,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.14422815 = fieldWeight in 4871, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.0042869067 = product of:
          0.008573813 = sum of:
            0.008573813 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.008573813 = score(doc=4871,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.33333334 = coord(5/15)
    
    Abstract
    Die Onlinesuche im Internet bringt zwar viele, oft aber nur wenige nützliche Resultate. Nun sollen Websurfer dank verbesserter Software maßgeschneiderte Suchergebnisse erhalten - nicht nur bei Texten, sondern auch bei Bildern und Musikstücken
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    22. 1.2006 18:34:49
  19. Zschunke, P.: "Mehr Informationen als die Stasi je hatte" : Soziale Netzwerke (2008) 0.04
    0.03996488 = product of:
      0.11989464 = sum of:
        0.004829859 = product of:
          0.009659718 = sum of:
            0.009659718 = weight(_text_:online in 1308) [ClassicSimilarity], result of:
              0.009659718 = score(doc=1308,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.100593716 = fieldWeight in 1308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1308)
          0.5 = coord(1/2)
        0.07829542 = weight(_text_:soziale in 1308) [ClassicSimilarity], result of:
          0.07829542 = score(doc=1308,freq=8.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.40501565 = fieldWeight in 1308, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.016505662 = weight(_text_:software in 1308) [ClassicSimilarity], result of:
          0.016505662 = score(doc=1308,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.13149375 = fieldWeight in 1308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.011169797 = weight(_text_:web in 1308) [ClassicSimilarity], result of:
          0.011169797 = score(doc=1308,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.108171105 = fieldWeight in 1308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.009093903 = product of:
          0.018187806 = sum of:
            0.018187806 = weight(_text_:22 in 1308) [ClassicSimilarity], result of:
              0.018187806 = score(doc=1308,freq=4.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.16414827 = fieldWeight in 1308, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1308)
          0.5 = coord(1/2)
      0.33333334 = coord(5/15)
    
    Content
    "Millionen von Internet-Nutzern drängen in soziale Netze wie StudiVZ und Facebook. Diese Online-Plattformen für die Vernetzung von persönlichen Web-Auftritten entwickeln sich zu einer neuen Art von Massenmedium, wie der Digitale-Medien-Experte Hendrik Speck sagt. Völlig offen sei aber bislang die Frage nach der gesellschaftlichen Verantwortung der "Social Networks". "Die haben mehr Informationen, als die Stasi je hatte", sagt der Informatik-Professor der Fachhochschule Kaiserslautern im Gespräch mit der Nachrichtenagentur AP. Bei den drei Plattformen Facebook, MySpace und Xing hat Speck insgesamt 120 persönliche Attribute gezählt, die auf den persönlichen Seiten der Mitglieder angegeben werden können - angefangen bei Alter und Wohnort über Lieblingsfilme und -musik bis hin zu politischer Neigung und sexueller Ausrichtung. "Wir sehen da einen völlig irrationalen Zugang zu den eigenen Daten", kritisiert der Social-Networks-Forscher. Was aber treibt die Internet-Nutzer zu dieser Art von "digitalem Exhibitionismus"? Speck und seine Studenten haben die Kommunikation in den Netzen mit Hilfe von Software-Agenten und "Crawlern" zu erfassen versucht - das sind Programme, die auf die Seiten dieser Communities vordringen und die Inhalte auswerten. "Wir stellen fest, dass da unheimlich viel offen liegt", sagt Speck. Suche nach Anerkennung und Aufmerksamkeit Als wichtige Antriebskraft hat der Wissenschaftler das Motiv ausgemacht, über den stetig wachsenden Kreis von registrierten "Freunden" Anerkennung und Aufmerksamkeit zu erringen. Bei MySpace oder im SchülerVZ kann sich jeder auf eine Weise präsentieren, wie es in den klassischen Medien kaum möglich ist. Und weil die persönlichen Profile mit wenigen Mausklicks schnell erstellt sind, ist die Eintrittsschwelle sehr viel geringer als bei den Netz-Communities der ersten Stunde, etwa der schon 1985 gegründeten virtuellen Gemeinschaft "The WELL".
    Bislang sind es meist Jugendliche und junge Erwachsene bis etwa 35, die die Mehrheit der Community-Mitglieder ausmachen. Es gebe aber Bestrebungen, die Altersgruppe nach oben zu erweitern, sagt Speck. Die soziale Interaktion in den Social Networks kreist nach seinen Erkenntnissen immer wieder um die gleichen Dinge: 1) Unterhaltung - von Musik bis zu Stars und Sternchen 2) die gesellschaftlich geteilte Schadenfreude nach dem Motto "Pleiten, Pech und Pannen" 3) Flirten und sexuelle Beziehungen. Dabei kommen Männer direkter auf den Punkt als Frauen, die dies hinter anderen Interessen verstecken. Auf der anderen Seite stehen die Betreiber der Netze. Diese erzielen mit der Bereitstellung der Plattform zwar bislang meist noch keine Gewinne, haben aber wegen der gigantischen Zuwachsraten das Interesse von Internet- und Medienunternehmen geweckt, die wie Microsoft oder die Verlagsgruppe Holtzbrinck in Social Networks investieren. Der einzelne Nutzer ist 20 bis 22 Dollar wert Da die Technik der Webseiten nicht besonders aufwendig sei, liege der eigentliche Reichtum in den Nutzern und ihren Daten, erklärt Speck. Bei den großen Plattformen in den USA lasse sich aus den getätigten Investitionen für die Social Networks der Wert eines einzelnen Nutzers auf einen Betrag von 20 bis 22 Dollar (14 bis 15 Euro) schätzen. Der Gegenwert, den die Nutzer liefern sollen, wird vor allem in der Werbung gesehen. Neben der klassischen Bannerwerbung auf den eigenen Seiten versuchen die Betreiber der sozialen Netzwerke nach Darstellung Specks, in andere Dienste wie SMS-Werbung oder E-Mail vorzudringen. Um die Werbe-Zielgruppen immer feiner zu erfassen, werde auch untersucht, wer mit welchem Profil mit wem kommuniziere. "Je tiefer die Vernetzung, desto dichter werden die Informationen", erklärt Speck.
    Der Wissenschaftler kritisiert, dass die Daten so behandelt würden, als gehörten sie nicht dem Nutzer, sondern den sozialen Netzwerken. Selbst wenn es die Möglichkeit gebe, einen Account zu löschen, blieben die Daten vielfach weiter bestehen. Und über die beliebten Mini-Anwendungen zur Integration in die eigene Profilseite erhielten auch die Entwickler dieser Applikationen einen Zugang zu den persönlichen Daten. "Da weiß man dann gar nicht, wer dahinter steckt." Weder "open" noch "social" Google hat Anfang November vergangenen Jahres unter der Bezeichung OpenSocial eine Initiative gestartet, um solche Anwendungen und Schnittstellen nach einheitlichen Standards programmieren zu können. Das Projekt sei aber weder "open" noch "social", weil nicht vorgesehen sei, den Nutzern eine transparente Kontrolle über ihre eigenen Daten zu geben, bemängelt der FH-Professor. Das Projekt bemühe sich um die "Datenportabilität" zwischen den kommerziellen Projektpartnern und unterstütze die Interaktionen zwischen einzelnen Communities, versage jedoch komplett bei der Interessenswahrnehmung der Nutzer in Hinblick auf informationelle Selbstbestimmung und einem verbesserten Schutz der Privatssphäre. Um die zahlreichen offenen Fragen nach der Verantwortung für die Millionen von persönlichen Daten zu klären, schlägt Speck einen Verhaltenskodex für soziale Netzwerke vor. Für die gemeinsame Entwicklung von ethischen Grundsätzen will er neben Datenschützern auch die Betreiber der Communities gewinnen und hofft, schon in wenigen Monaten eine entsprechende Initiative vorstellen zu können. http://www.hendrikspeck.com"
  20. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.04
    0.038927574 = product of:
      0.14597839 = sum of:
        0.08382353 = weight(_text_:suchmaschine in 4885) [ClassicSimilarity], result of:
          0.08382353 = score(doc=4885,freq=18.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.46853453 = fieldWeight in 4885, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
        0.01861633 = weight(_text_:web in 4885) [ClassicSimilarity], result of:
          0.01861633 = score(doc=4885,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 4885, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
        0.026383169 = weight(_text_:site in 4885) [ClassicSimilarity], result of:
          0.026383169 = score(doc=4885,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.15176146 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
        0.017155347 = product of:
          0.034310695 = sum of:
            0.034310695 = weight(_text_:analyse in 4885) [ClassicSimilarity], result of:
              0.034310695 = score(doc=4885,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2058118 = fieldWeight in 4885, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4885)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Content
    "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt. <title> bedeutet: Hier folgt eine Überschrift, <description>: Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (<b>, <h1>) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde.
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
    Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"

Types

  • el 139
  • b 3
  • More… Less…

Themes