Search (294 results, page 1 of 15)

  • × theme_ss:"Suchmaschinen"
  1. Bischopinck, Y. von; Ceyp, M.: Suchmaschinen-Marketing : Konzepte, Umsetzung und Controlling (2007) 1.09
    1.0918125 = product of:
      1.9496651 = sum of:
        0.099506915 = weight(_text_:wirtschaftswissenschaften in 482) [ClassicSimilarity], result of:
          0.099506915 = score(doc=482,freq=8.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.8418698 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.22271647 = weight(_text_:gewerbepolitik in 482) [ClassicSimilarity], result of:
          0.22271647 = score(doc=482,freq=8.0), product of:
            0.17683078 = queryWeight, product of:
              9.499662 = idf(docFreq=8, maxDocs=44218)
              0.018614428 = queryNorm
            1.2594892 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              9.499662 = idf(docFreq=8, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.08549467 = weight(_text_:einzelne in 482) [ClassicSimilarity], result of:
          0.08549467 = score(doc=482,freq=8.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.78034705 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.21780358 = weight(_text_:wirtschaftszweige in 482) [ClassicSimilarity], result of:
          0.21780358 = score(doc=482,freq=8.0), product of:
            0.17486957 = queryWeight, product of:
              9.394302 = idf(docFreq=9, maxDocs=44218)
              0.018614428 = queryNorm
            1.2455202 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              9.394302 = idf(docFreq=9, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.055499867 = product of:
          0.11099973 = sum of:
            0.11099973 = weight(_text_:industrie in 482) [ClassicSimilarity], result of:
              0.11099973 = score(doc=482,freq=8.0), product of:
                0.12483682 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.018614428 = queryNorm
                0.8891586 = fieldWeight in 482, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.046875 = fieldNorm(doc=482)
          0.5 = coord(1/2)
        0.09827751 = product of:
          0.19655502 = sum of:
            0.19655502 = weight(_text_:bergbau in 482) [ClassicSimilarity], result of:
              0.19655502 = score(doc=482,freq=8.0), product of:
                0.16612071 = queryWeight, product of:
                  8.924298 = idf(docFreq=15, maxDocs=44218)
                  0.018614428 = queryNorm
                1.183206 = fieldWeight in 482, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  8.924298 = idf(docFreq=15, maxDocs=44218)
                  0.046875 = fieldNorm(doc=482)
          0.5 = coord(1/2)
        0.07132204 = product of:
          0.14264408 = sum of:
            0.14264408 = weight(_text_:handel in 482) [ClassicSimilarity], result of:
              0.14264408 = score(doc=482,freq=8.0), product of:
                0.14151698 = queryWeight, product of:
                  7.602543 = idf(docFreq=59, maxDocs=44218)
                  0.018614428 = queryNorm
                1.0079644 = fieldWeight in 482, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  7.602543 = idf(docFreq=59, maxDocs=44218)
                  0.046875 = fieldNorm(doc=482)
          0.5 = coord(1/2)
        0.044569958 = product of:
          0.089139916 = sum of:
            0.089139916 = weight(_text_:dienstleistungen in 482) [ClassicSimilarity], result of:
              0.089139916 = score(doc=482,freq=8.0), product of:
                0.11187108 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.018614428 = queryNorm
                0.7968093 = fieldWeight in 482, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.046875 = fieldNorm(doc=482)
          0.5 = coord(1/2)
        0.18684857 = weight(_text_:handwerk in 482) [ClassicSimilarity], result of:
          0.18684857 = score(doc=482,freq=8.0), product of:
            0.16196702 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.018614428 = queryNorm
            1.1536211 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.22271647 = weight(_text_:versorgungseinrichtungen in 482) [ClassicSimilarity], result of:
          0.22271647 = score(doc=482,freq=8.0), product of:
            0.17683078 = queryWeight, product of:
              9.499662 = idf(docFreq=8, maxDocs=44218)
              0.018614428 = queryNorm
            1.2594892 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              9.499662 = idf(docFreq=8, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.17910026 = weight(_text_:gas in 482) [ClassicSimilarity], result of:
          0.17910026 = score(doc=482,freq=8.0), product of:
            0.15857321 = queryWeight, product of:
              8.518833 = idf(docFreq=23, maxDocs=44218)
              0.018614428 = queryNorm
            1.1294484 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              8.518833 = idf(docFreq=23, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.16475405 = weight(_text_:wasser in 482) [ClassicSimilarity], result of:
          0.16475405 = score(doc=482,freq=8.0), product of:
            0.15208969 = queryWeight, product of:
              8.1705265 = idf(docFreq=33, maxDocs=44218)
              0.018614428 = queryNorm
            1.083269 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              8.1705265 = idf(docFreq=33, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.21780358 = weight(_text_:informationsgewerbe in 482) [ClassicSimilarity], result of:
          0.21780358 = score(doc=482,freq=8.0), product of:
            0.17486957 = queryWeight, product of:
              9.394302 = idf(docFreq=9, maxDocs=44218)
              0.018614428 = queryNorm
            1.2455202 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              9.394302 = idf(docFreq=9, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.08325121 = weight(_text_:post in 482) [ClassicSimilarity], result of:
          0.08325121 = score(doc=482,freq=8.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.7700405 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
      0.56 = coord(14/25)
    
    Classification
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    RVK
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
  2. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.16
    0.1576141 = product of:
      0.6567254 = sum of:
        0.029564645 = product of:
          0.08869393 = sum of:
            0.08869393 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.08869393 = score(doc=2514,freq=2.0), product of:
                0.15781333 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.018614428 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.12543216 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.12543216 = score(doc=2514,freq=4.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.12543216 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.12543216 = score(doc=2514,freq=4.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.12543216 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.12543216 = score(doc=2514,freq=4.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.12543216 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.12543216 = score(doc=2514,freq=4.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.12543216 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.12543216 = score(doc=2514,freq=4.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.24 = coord(6/25)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  3. Marchiori, M.: ¬The quest for correct information on the Web : hyper search engines (1997) 0.01
    0.007955678 = product of:
      0.066297315 = sum of:
        0.008907119 = product of:
          0.017814238 = sum of:
            0.017814238 = weight(_text_:29 in 7453) [ClassicSimilarity], result of:
              0.017814238 = score(doc=7453,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.27205724 = fieldWeight in 7453, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7453)
          0.5 = coord(1/2)
        0.048563205 = weight(_text_:post in 7453) [ClassicSimilarity], result of:
          0.048563205 = score(doc=7453,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.4491903 = fieldWeight in 7453, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7453)
        0.008826993 = product of:
          0.017653987 = sum of:
            0.017653987 = weight(_text_:22 in 7453) [ClassicSimilarity], result of:
              0.017653987 = score(doc=7453,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.2708308 = fieldWeight in 7453, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7453)
          0.5 = coord(1/2)
      0.12 = coord(3/25)
    
    Abstract
    Presents a novel method to extract from a web object its hyper informative content, in contrast with current search engines, which only deal with the textual information content. This method is not only valuable per se, but it is shown to be able to considerably increase the precision of current search engines. It integrates with existing search engine technology since it can be implemented on top of every search engine, acting as a post-processor, thus automatically transforming a search engine into its corresponding hyper version. Shows how the hyper information can be usefully employed to face the search engines persuasion problem
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1225-1235
  4. Price, A.: Five new Danish subject gateways under development (2000) 0.01
    0.0076425932 = product of:
      0.09553242 = sum of:
        0.08292243 = weight(_text_:wirtschaftswissenschaften in 4878) [ClassicSimilarity], result of:
          0.08292243 = score(doc=4878,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.7015581 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.01260999 = product of:
          0.02521998 = sum of:
            0.02521998 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
              0.02521998 = score(doc=4878,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.38690117 = fieldWeight in 4878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Date
    22. 6.2002 19:41:31
    Field
    Wirtschaftswissenschaften
  5. Siegenheim, V.; Kaumanns, R.: ¬Die Google-Ökonomie : Wie Google die Wirtschaft verändert (2007) 0.01
    0.006584345 = product of:
      0.082304314 = sum of:
        0.05863501 = weight(_text_:wirtschaftswissenschaften in 2414) [ClassicSimilarity], result of:
          0.05863501 = score(doc=2414,freq=4.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.49607652 = fieldWeight in 2414, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2414)
        0.0236693 = product of:
          0.0473386 = sum of:
            0.0473386 = weight(_text_:allgemeines in 2414) [ClassicSimilarity], result of:
              0.0473386 = score(doc=2414,freq=4.0), product of:
                0.10620318 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.018614428 = queryNorm
                0.44573617 = fieldWeight in 2414, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2414)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    QP 380 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Unternehmensführung / Unternehmertum. Unternehmerbiographien
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    QP 380 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Unternehmensführung / Unternehmertum. Unternehmerbiographien
  6. Weinstein, A.: Hochprozentig : Tipps and tricks für ein Top-Ranking (2002) 0.01
    0.0062282854 = product of:
      0.15570714 = sum of:
        0.15570714 = weight(_text_:handwerk in 1083) [ClassicSimilarity], result of:
          0.15570714 = score(doc=1083,freq=2.0), product of:
            0.16196702 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.018614428 = queryNorm
            0.96135086 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
      0.04 = coord(1/25)
    
    Abstract
    Die Suchmaschinen haben in den letzten Monaten an ihren Ranking-Algorithmen gefeilt, um Spamern das Handwerk zu erschweren. Internet Pro beleuchtet die Trends im Suchmaschinen-Marketing
  7. Schmidt, W.: ¬Die Erfolgreiche : Wie die Suchmaschine wurde, was sie ist (2006) 0.00
    0.004873881 = product of:
      0.040615678 = sum of:
        0.017811388 = weight(_text_:einzelne in 5938) [ClassicSimilarity], result of:
          0.017811388 = score(doc=5938,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.1625723 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.017344002 = weight(_text_:post in 5938) [ClassicSimilarity], result of:
          0.017344002 = score(doc=5938,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.1604251 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.0054602865 = product of:
          0.010920573 = sum of:
            0.010920573 = weight(_text_:22 in 5938) [ClassicSimilarity], result of:
              0.010920573 = score(doc=5938,freq=6.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.16753313 = fieldWeight in 5938, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
      0.12 = coord(3/25)
    
    Content
    "Wer Google googelt, sieht zuallererst Google. Das klingt wie ein plattes Witzchen - ist aber schon das wesentliche Geheimnis des unheimlichen Erfolgs einer Suchmaschine, der es gelungen ist, binnen weniger Jahre das Internet, die Suche nach Informationen und die Werbewelt zu verändern und sich unentbehrlich zu machen. Googeln wurde buchstäblich zum Begriff. "Keine andere Marke hat je so schnell globale Anerkennung gefunden wie Google", schreiben David A. Vise, ein Reporter der "Washington Post", und sein Kollege Mark Malseed in ihrem Buch über den sagenhaften Aufstieg des Unternehmens, das Suchergebnisse in 35 Sprachen liefert. Allein in Deutschland nutzen heute über 22 Millionen Menschen die Suchmaschine mit den bunten Buchstaben regelmäßig - unter den Internet-Surfern hierzulande ein Marktanteil von 65 Prozent. Sie suchen nach Neuigkeiten über ihre Filmhelden, prüfen die Schreibweise von Fremdwörtern oder forschen wie Detektive nach Wissenswertem über die Frau oder den Mann, mit dem sie sich abends treffen werden - zum Rendezvous oder Geschäftsessen. Längst gelten in manchen Kreisen Menschen als Langweiler, über die selbst Google nichts weiß. Wie dieser Erfolg möglich war, beschreiben Vise und Malseed auf rund 300 Seiten. Man kann es mit dem Dichter Victor Hugo (1802-1885) aber auch kürzer sagen: "Nichts ist so mächtig wie eine Idee, deren Zeit gekommen ist." Noch mächtiger freilich ist eine Idee, die von der Konkurrenz übernommen wird - in totaler Verkennung der Bedürfnisse von Internet-Nutzern. Eine solche Idee brachte 1997 Google hervor - und hat längst Wirtschafts- und Kulturgeschichte geschrieben. Der zentrale Gedanke der beiden damals 22-jährigen Google-Gründer Larry Page und Sergey Brin ist simpel: Wenn die Lawine der im Internet abrufbaren Informationen weiter derart anschwillt, dann brauchen die Nutzer des weltweiten Netzes einen exzellenten Suchhund. Nicht umsonst ist der Name der Suchmaschine abgeleitet von dem Wort Googol, womit in der Mathematik eine absurd große Zahl mit hundert Nullen bezeichnet wird - eine Anspielung auf die unermessliche und längst unüberschaubare Weite des Internets.
    Hilfe beim Finden tut also Not. Nur reicht es eben nicht, wenn ein Recherche-Programm für einen Begriff wie "Klimawandel" möglichst viele Fundstellen auflistet, durch die man sich dann erst einmal mühsam klicken und lesen muss. Das verbesserte Betriebsklima in der Firma XY ist für die meisten eher unwichtig. Page und Brin, Informatik-Studenten an der kalifornischen Universität Stanford, erkannten schnell, dass sie eine sinnvolle Rangfolge innerhalb der Suchergebnisse zustande bringen mussten, um Google zum Erfolg zu verhelfen Ihr erster Geldgeber Andy Bechtolsheim, der 1998 hilfreiche 100 000 Dollar beisteuerte, begründete seine Investition mit den Mängeln marktüblicher Suchmaschinen: "Damals benutzte ich das Internet fast ausschließlich für Suchanfragen, und ein Teil meiner Frustration rührte daher, dass AltaVista - die Standard-Suchmaschine - nicht sehr gut war." Viele der zahlreichen Ergebnisse waren unbrauchbar. Die 1995 in den USA ebenfalls gängige Suchmaschine Inktomi fand sich damals nicht einmal selber, wenn man ihren Namen in die Suchmaske eintippte. Google hingegen findet Relevantes meist zielsicher in Bruchteilen einer Sekunde - und sich selbst natürlich zuerst. Genial war auch die bis heute konsequent umgesetzte Idee, die Google-Startseite frei von Reklame und vor allem von Fotos und albernen Mätzchen zu halten. Derartiges verursacht nicht nur zusätzliche Ladezeit - gerade auf älteren Rechnern und bei langsamen Netz-Zugängen. Es wirkt auch unseriös und vermittelt den Eindruck, dass einem auf solchen Seiten vor allem etwas angedreht werden soll. Während die Konkurrenz ihre wichtigste Seite überluden, hielten Brin und Page an ihrem asketischen Portal fest. Dieses besteht bis heute praktisch nur aus dem Namen Google, kleinen Schaltflächen für die einzelnen Dienste und dem Suchfeld. Allenfalls werden zu besonderen Anlässen wie weltweit relevanten Jubiläen, Jahrestagen oder Sport-Ereignissen einzelne Buchstaben des Namenszuges meist witzig verändert.
    Date
    3. 5.1997 8:44:22
  8. Alby, T.; Karzauninkat, S.: Suchmaschinenoptimierung : professionelles Website-Marketing für besseres Ranking ; [berücksichtigt Google Analytics] (2007) 0.00
    0.004823791 = product of:
      0.06029739 = sum of:
        0.04690801 = weight(_text_:wirtschaftswissenschaften in 35) [ClassicSimilarity], result of:
          0.04690801 = score(doc=35,freq=4.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.39686123 = fieldWeight in 35, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.013389378 = product of:
          0.026778756 = sum of:
            0.026778756 = weight(_text_:allgemeines in 35) [ClassicSimilarity], result of:
              0.026778756 = score(doc=35,freq=2.0), product of:
                0.10620318 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.018614428 = queryNorm
                0.25214645 = fieldWeight in 35, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=35)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Mit Suchmaschinenoptimierung. Professionelles Website-Marketing für besseres Ranking liefern Stefan Karzauninkat und Tom Alby einen sauberen Überblick über Grundlagen, Gründe, Maßnahmen und Zielsetzungen von suchmaschinenoptierten Websites. Essentielles Internet-Wissen auf dem aktuellen Stand. Karzauninkat und Alby widmen ihr Buch Entscheidern, Konzeptionern, Designern und Webmastern, die ihre Website, ob neu oder alt, im Gesamtzusammenhang des Internet sehen und verstehen wollen. Suchmaschinen sind und waren dabei schon immer ein wesentlicher Faktor, denn sie sind die Instanz, die eine Website und deren Informationen findet, wenn sie gesucht wird. Die Sucharbeit der Maschinen kann man ignorieren, behindern oder unterstützen -- wenn man weiß wie. Karzauninkat und Alby haben ihr Wissen praktisch erworben. Vor allem Karzauninkat kann zahlreiche Internetprojekt vorweisen, zu denen auch die bekannte und viel besuchte Suchmaschinen-Website www.suchfibel.de gehört. Ziel der beiden Autoren ist es, ein allgemeines Verständnis für die Such- und Gefundenwelt des Internet und dauerhafte und anhaltende Maßnahmen für die gefunden-werden-Bilanz sowie die Platzierung innerhalb der Liste der gefundenen Suchergebnisse zu vermitteln. Überzeugen, erklären und zeigen lautet die Devise: Am Anfang steht eine Einführung mit dem Titel "Wozu das Ganze". Argumentationsstoff und Fakten für den folgenden Aufwand. Darauf folgt die Website-Optimierung als Teil der Unternehmenskommunikation und dieses Kapitel zeigt auch einen Fokus der beiden: Verkaufen. Nun gut, welcher Zweck auch immer, die Mittel sind immer die gleichen. Als nächstes stellen sie Suchmaschinen und ihre Funktionsweise vor, bevor sie sich dann dem Kern ihres Buches widmen: die Optimierung zur Positionsverbesserung. Hier entschlüsseln sie die Bedeutung von Inhalt, erklären kurz die technischen Belange und zeigen wo es Probleme und Widerstände geben kann. Auch professionelle Dienstleister für die Website-Optimierung nehmen sie unter die Lupe. Zuletzt dann Suchmaschinenmarketing, laufende Maßnahmen zur Erfolgskontrolle und dann noch sechs kurze Fallbeispiele. Ebenso bieten sie ein Glossar und einen Anhang mit Server-Response-Codes, Agents und Meta-Tags sowie weiterführende Literatur und Weblinks. Übrigens steht den Druck-Käufern das gesamte Buch auch als eBook zur Verfügung! Suchmaschinenoptimierung ist ein guter, locker geschriebener und leicht zu lesender, vor allem aktueller Überblick mit einem Gespür für die Fragen und Bedürfnisse der Zielgruppe von Entscheider bis Webmaster. Wer Suchmaschinen-Verständnis ohne technische Überlastung sucht, liest hier zufrieden.
    Classification
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
    RVK
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
  9. Bilal, D.: Children's use of the Yahooligans! Web search engine : III. Cognitive and physical behaviors on fully self-generated search tasks (2002) 0.00
    0.0039353278 = product of:
      0.049191598 = sum of:
        0.041625604 = weight(_text_:post in 5228) [ClassicSimilarity], result of:
          0.041625604 = score(doc=5228,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.38502026 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.046875 = fieldNorm(doc=5228)
        0.007565994 = product of:
          0.015131988 = sum of:
            0.015131988 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.015131988 = score(doc=5228,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23214069 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Bilal, in this third part of her Yahooligans! study looks at children's performance with self-generated search tasks, as compared to previously assigned search tasks looking for differences in success, cognitive behavior, physical behavior, and task preference. Lotus ScreenCam was used to record interactions and post search interviews to record impressions. The subjects, the same 22 seventh grade children in the previous studies, generated topics of interest that were mediated with the researcher into more specific topics where necessary. Fifteen usable sessions form the basis of the study. Eleven children were successful in finding information, a rate of 73% compared to 69% in assigned research questions, and 50% in assigned fact-finding questions. Eighty-seven percent began using one or two keyword searches. Spelling was a problem. Successful children made fewer keyword searches and the number of search moves averaged 5.5 as compared to 2.4 on the research oriented task and 3.49 on the factual. Backtracking and looping were common. The self-generated task was preferred by 47% of the subjects.
  10. Dönhoff, P.; Bartels, C.: Online-Recherche bei NETZEITUNG.DE (2007) 0.00
    0.003494844 = product of:
      0.04368555 = sum of:
        0.008997548 = product of:
          0.017995097 = sum of:
            0.017995097 = weight(_text_:29 in 380) [ClassicSimilarity], result of:
              0.017995097 = score(doc=380,freq=4.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.2748193 = fieldWeight in 380, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=380)
          0.5 = coord(1/2)
        0.034688003 = weight(_text_:post in 380) [ClassicSimilarity], result of:
          0.034688003 = score(doc=380,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.3208502 = fieldWeight in 380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0390625 = fieldNorm(doc=380)
      0.08 = coord(2/25)
    
    Abstract
    Die Netzeitung war die erste und ist bis heute die führende deutsche Tageszeitung mit Vollredaktion, die ausschließlich im internet erscheint. Seit ihrer Gründung im Frühjahr 2000 hat sie bewegte Zeiten hinter sich. Es gab verschiedene Besitzerwechsel: Von den norwegischen Gründern und Namensgebern, den online-Journalismus-Pionieren Nettavisen.no, ging sie in den Besitz von Bertelsmann über, bevor sie dann von ihrem Chefredakteur Dr. Michael Maier und seinem Partner Ralf Dieter Brunowski übernommen wurde und schließlich im Sommer 2005 wieder in norwegische Hände überging: zum in Oslo ansässige Medienunternehmen Orkla Media. Auch inhaltlich hat sich Netzeitung.de seit den Anfangsjahren stark weiterentwickelt. Die Website erhielt verschiedene Preise, wurde als meistzitiertes Onlinemedium ausgezeichnet und erhielt schließlich im Herbst 2006 den internationalen Global-Media-Award für die Kategorie >Online<. In dieser Kategorie hat sie auch renommierte Angebote, wie New York Times, Washington Post oder Spiegel Online hinter sich gelassen und damit ihre Relevanz unter Nachrichtenportalen erneut bestätigt. Neben der Website bestückt das Unternehmen inzwischen Medienangebote aller Art: Gesprochene Radio-Nachrichten und Berichte für zahlreiche Radiostationen gehören ebenso dazu wie die Teletextangebote für verschiedene TV-Sender oder Inhalte für online-Redaktionen, Infoterminals, Firmen-Intranets und mobile Geräte.
    Date
    13. 5.2007 10:29:29
  11. Su, L.T.: ¬A comprehensive and systematic model of user evaluation of Web search engines : Il. An evaluation by undergraduates (2003) 0.00
    0.0032794396 = product of:
      0.040992998 = sum of:
        0.034688003 = weight(_text_:post in 2117) [ClassicSimilarity], result of:
          0.034688003 = score(doc=2117,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.3208502 = fieldWeight in 2117, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2117)
        0.006304995 = product of:
          0.01260999 = sum of:
            0.01260999 = weight(_text_:22 in 2117) [ClassicSimilarity], result of:
              0.01260999 = score(doc=2117,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.19345059 = fieldWeight in 2117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2117)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    This paper presents an application of the model described in Part I to the evaluation of Web search engines by undergraduates. The study observed how 36 undergraduate used four major search engines to find information for their own individual problems and how they evaluated these engines based an actual interaction with the search engines. User evaluation was based an 16 performance measures representing five evaluation criteria: relevance, efficiency, utility, user satisfaction, and connectivity. Non-performance (user-related) measures were also applied. Each participant searched his/ her own topic an all four engines and provided satisfaction ratings for system features and interaction and reasons for satisfaction. Each also made relevance judgements of retrieved items in relation to his/her own information need and participated in post-search Interviews to provide reactions to the search results and overall performance. The study found significant differences in precision PR1 relative recall, user satisfaction with output display, time saving, value of search results, and overall performance among the four engines and also significant engine by discipline interactions an all these measures. In addition, the study found significant differences in user satisfaction with response time among four engines, and significant engine by discipline interaction in user satisfaction with search interface. None of the four search engines dominated in every aspect of the multidimensional evaluation. Content analysis of verbal data identified a number of user criteria and users evaluative comments based an these criteria. Results from both quantitative analysis and content analysis provide insight for system design and development, and useful feedback an strengths and weaknesses of search engines for system improvement
    Date
    24. 1.2004 18:27:22
  12. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.00
    0.003082032 = product of:
      0.038525403 = sum of:
        0.033126872 = weight(_text_:700 in 851) [ClassicSimilarity], result of:
          0.033126872 = score(doc=851,freq=2.0), product of:
            0.1363961 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.018614428 = queryNorm
            0.2428726 = fieldWeight in 851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
        0.0053985296 = product of:
          0.010797059 = sum of:
            0.010797059 = weight(_text_:29 in 851) [ClassicSimilarity], result of:
              0.010797059 = score(doc=851,freq=4.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.1648916 = fieldWeight in 851, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=851)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Content
    Spektrum der Wissenschaft: Frau Henzinger, wie viele Seiten des World Wide Web erschließt Google heute? Monika Henzinger: Wir haben über zwei Milliarden Webseiten in unserer Datenbank. Hinzu kommen 700 Millionen Newsgroup-Beiträge, die weit in die Vergangenheit reichen, und 300 Millionen Bilder. - Spektrum: Und diese Inhalte haben Sie komplett gespeichert? - Henzinger: In komprimierter Form, ja. Spektrum: Ist das nicht schon das gesamte Web? - Henzinger: Bei weitem nicht! Eigentlich ist das Web unendlich. Es gibt Datenbanken, die beliebig viele Webseiten auf Anfrage erzeugen können. Natürlich macht es keinen Sinn, die alle in der Suchmaschine zu haben. Wir beschränken uns auf Seiten hoher Qualität. - Spektrum: Wie wählen Sie die aus? - Henzinger: Nach dem so genannten PageRank. Das ist eine Note, die wir jeder Seite geben, unabhängig von irgendeiner Anfrage, für die diese Seite relevant sein könnte. Und zwar ist die Qualität einer Seite - oder anders gesagt: die Hochachtung, die sie innerhalb des Web genießt - umso größer, je mehr andere Seiten auf sie verweisen und je höher die Qualität der verweisenden Seite ist. Der PageRank bestimmt auch wesentlich die Reihenfolge, in der Google dem Anfrager die Ergebnisse präsentiert. - Spektrum: Ist der PageRank manipulierbar, etwa durch ein Zitierkartell? - Henzinger: Es wird zumindest immer wieder versucht. Zum Beispiel ist "Britney Spears" ein sehr häufiger Suchbegriff. Deswegen versuchen viele, ihren PageRank hochzutreiben, um unter den Antworten auf "Britney Spears" auf den vordersten Plätzen zu landen, auch wenn sie bloß Turnschuhe verkaufen. - Spektrum: Und was tun Sie dagegen? - Henzinger: Wenn wir offensichtlichen Missbrauch sehen, nehmen wir die entsprechenden Seiten gezielt heraus - im Interesse unserer Benutzer, für die wir die Qualität wahren wollen. - Spektrum: Gibt es auch andere Maßnahmen als diese Einzelkorrekturen? - Henzinger: Ja. Aber die diskutieren wir nicht öffentlich, um den "Rüstungswettlauf" nicht anzuheizen. - Spektrum: Seit wann gibt es Google? - Henzinger: Die Firma existiert seit dreieinhalb Jahren. Seit reichlich zwei Jahren sind wir auf dem Markt. Die Kunde von uns hat sich durch Mundpropaganda verbreitet, und inzwischen kommt die Hälfte der Anfragen von außerhalb der USA, zwölf Prozent allein aus dem deutschsprachigen Raum. Wir beantworten über 150 Millionen Anfragen am Tag, und zwar direkt oder über unsere Partner. Wenn zum Beispiel die Suchmaschine Yahoo ein Stichwort nicht im eigenen Verzeichnis findet, reicht sie die Anfrage an uns weiter und gibt dem Benutzer unsere Antwort. - Spektrum: Mit welcher Hardware läuft das System? - Henzinger: Mit über zehntausend PCs, verteilt auf vier Datenzentren. Betriebssystem ist Linux. - Spektrum: Wie prüfen Sie, ob die aufgeftihrten Webseiten noch existieren? - Henzinger: Besonders ereignisreiche Webseiten besuchen wir täglich. Alle 28 Tage aktualisieren wir den Index - das ist die Liste, die zu jedem Wort die Seiten aufführt, auf denen es vorkommt. - Spektrum: Wie aufwendig ist dieses Indizieren? - Henzinger: Sehr aufwendig. Etwa eine Woche. - Spektrum: Wie viele Leute hat die Firma? - Henzinger: Ungefähr 300. Bisher haben wir unsere Belegschaft in jedem Jahr ungefähr verdoppelt. -
    Date
    31.12.1996 19:29:41
    2. 8.2002 14:39:29
  13. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.00
    0.0027003451 = product of:
      0.033754315 = sum of:
        0.031232316 = weight(_text_:700 in 3684) [ClassicSimilarity], result of:
          0.031232316 = score(doc=3684,freq=4.0), product of:
            0.1363961 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.018614428 = queryNorm
            0.22898248 = fieldWeight in 3684, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.002521998 = product of:
          0.005043996 = sum of:
            0.005043996 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.005043996 = score(doc=3684,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Date
    22. 6.2005 9:52:00
  14. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.00
    0.0026833771 = product of:
      0.033542216 = sum of:
        0.028498221 = weight(_text_:einzelne in 2403) [ClassicSimilarity], result of:
          0.028498221 = score(doc=2403,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.26011568 = fieldWeight in 2403, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
        0.005043996 = product of:
          0.010087992 = sum of:
            0.010087992 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
              0.010087992 = score(doc=2403,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.15476047 = fieldWeight in 2403, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2403)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  15. Hiom, D.: SOSIG : an Internet hub for the social sciences, business and law (2000) 0.00
    0.0026535178 = product of:
      0.06633794 = sum of:
        0.06633794 = weight(_text_:wirtschaftswissenschaften in 4871) [ClassicSimilarity], result of:
          0.06633794 = score(doc=4871,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.5612465 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.0625 = fieldNorm(doc=4871)
      0.04 = coord(1/25)
    
    Field
    Wirtschaftswissenschaften
  16. Pothe, A.: Nachgezählt : Wie groß ist das WWW? (2004) 0.00
    0.0024820713 = product of:
      0.062051784 = sum of:
        0.062051784 = weight(_text_:post in 3036) [ClassicSimilarity], result of:
          0.062051784 = score(doc=3036,freq=10.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.5739543 = fieldWeight in 3036, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.03125 = fieldNorm(doc=3036)
      0.04 = coord(1/25)
    
    Content
    "Die verflixten dynamischen Seiten Viele Server erzeugen Seiten erst in dem Moment, in dem sie der Nutzer anfordert. Dabei greifen sie für die Inhalte auf Datenbanken zurück. Die dafür notwendigen Parameter werden bei der Anforderung der Seiten mit übermittelt. Für die Anforderung von WebSeiten kennt das HTTP-Protokoll zwei unterschiedliche Methoden - "GET" und "POST". Mit GET angeforderte dynamische Seiten erkennt man in der Regel leicht an den Parametern, die an die URL gehängt werden. Beispielsweise übergibt der Aufruf http://www.google.com/search?q=Beispiel an Google eine Suchanfrage (Parameter "q") nach dem Wort "Beispiel". Die Parameter sind durch ein Fragezeichen vom Seitennamen getrennt. Webserver können die Parameter aber auch verstecken, also ohne das Fragezeichen in der Adresse auswerten. Bei der Suchmaschine Fireball zum Beispiel zeigt die Seite http://suche.fireball.de/text/test/ dieselben Ergebnisse an wie die Seite http://suche.fireball.de/cgi-bin/pursuit?T query=test&cat=fbt loc&SITE=de Dynamische Seiten mit POSTParametern lassen sich nur schwer erkennen. Hier werden Daten nämlich nicht über die URL übergeben, sondern vom Browser in den Body der HTTPAnfrage geschrieben, wo sie für den Anwender üblicherweise nicht einsehbar sind. Aus diesem Grund lassen sich dynamische Seiten mit POST-Parametern auch nicht verlinken, da die POST-Parameter in einem normalen Link nicht mit übertragen werden. Die POST-Methode ermöglicht die Übertragung von größeren Datenmengen als GET. Da die Parameter nicht in der History stehen, bietet POST eine gewisse Sicherheit bei der Übertragung von heiklen Daten wie Kreditkartennummern. Dynamische Seiten machen das WWW unendlich groß. Das zeigt sich schon bei den Suchmaschinen, in deren Suchformulare beliebige Begriffe eingegeben werden können. Bei jedem neuen Begriff, bei der kleinsten Änderung der Suchdaten gibt die Suchmaschine eine andere Seite aus. Um genau diejenigen Seiten zu erfassen, die auch Suchrnaschinen indexieren können, bedarf es eines Kompromisses: Dynamische Seiten wurden nur gezählt, wenn sie nicht voraussetzen, dass für ihren Abruf ein Textfeld ausgefüllt wird. Sobald Seitengenerierungen aus Textfeldern unberücksichtigt bleiben, wird nur noch eine endliche Menge an Seiten untersucht. Seiten mit (sichtbaren wie unsichtbaren) GET-Parametern in der URL können Suchmaschinen dagegen indexieren. Bei der Untersuchung wurden dynamische Seiten mit sichtbaren Parametern ebenfalls nicht erfasst, sondern durch den Korrekturfaktor mit berücksichtigt."
  17. Sauer, D.: Alles schneller finden (2001) 0.00
    0.002448407 = product of:
      0.030605087 = sum of:
        0.017995097 = product of:
          0.035990193 = sum of:
            0.035990193 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.035990193 = score(doc=6835,freq=4.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.5 = coord(1/2)
        0.01260999 = product of:
          0.02521998 = sum of:
            0.02521998 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.02521998 = score(doc=6835,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  18. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    0.0023499087 = product of:
      0.02937386 = sum of:
        0.017811388 = weight(_text_:einzelne in 5956) [ClassicSimilarity], result of:
          0.017811388 = score(doc=5956,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.1625723 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
        0.011562472 = product of:
          0.023124944 = sum of:
            0.023124944 = weight(_text_:industrie in 5956) [ClassicSimilarity], result of:
              0.023124944 = score(doc=5956,freq=2.0), product of:
                0.12483682 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.018614428 = queryNorm
                0.18524139 = fieldWeight in 5956, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5956)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
    So gehen die Autoren dem Motto von Google, "don't be evil", nach und beschreiben die vielen Reibungspunkte, die Google als börsenorientiertes Unternehmen zum einen, und ihre Ideale der perfekten Suche zum anderen, verursachen. Ein besonderes Augenmerk widmet Battelle dem Geschäftsmodell von Google und anderer Suchdienste - der Werbung. Mit dem unaufhaltsamen Aufstieg des e-Commerce ist auch die Such-Wirtschaft zig Milliarden Dollar schwer geworden - die Symbiose ist nahezu perfekt. Viele (kleine) Unternehmen hängen direkt oder indirekt von Suchmaschinen ab, beziehen zu einem Großteil ihre Kunden direkt über deren Trefferlisten. Es ist daher nicht verwunderlich, dass Spam und Anti-Spam-Maßnahmen der Suchmaschinen ein Wettrennen ist, welches weite Kreise zieht. Im letzten Drittel des Buches verlässt Battelle die Vergangenheit und wendet sich den Trends und den künftigen Absichten der Such-Industrie zu. Hier bleibt alles spekulativ; Trends werden vorsichtig angerissen. Die Branche ist zu dynamisch, um hier eine klarere Vision zu entwickeln, doch der Autor nennt zahlreiche Möglichkeiten, Gefahren und Grenzen, die in Zukunft Google & Co begegnen werden. Empfehlung: Das Buch, welches auch ohne technischen Hintergrund sehr gut verständlich bleibt, ist sehr locker geschrieben. Es ist eine gute, sehr persönliche Einführung in die Geschichte der Suchmaschinen und der Suche allgemein, der Focus auf Google ist jedoch bestimmend. Das Interesse des Autors für geschäftliche Vorgänge, Strategien und Geschäftsentscheidungen ist für die Börsen-interessierten Leserinnen besonders spannend. Themen wie Informationsethik kommen am Rande vor, sind aber meist im Zusammenhang mit Googles Unternehmensphilosophie beschrieben und werden nicht in der Tiefe diskutiert. Ohne Zweifel, das Buch lebt am Puls der Zeit."
  19. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.00
    0.0023179199 = product of:
      0.019315999 = sum of:
        0.014249111 = weight(_text_:einzelne in 4871) [ClassicSimilarity], result of:
          0.014249111 = score(doc=4871,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.13005784 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.002544891 = product of:
          0.005089782 = sum of:
            0.005089782 = weight(_text_:29 in 4871) [ClassicSimilarity], result of:
              0.005089782 = score(doc=4871,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.07773064 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
        0.002521998 = product of:
          0.005043996 = sum of:
            0.005043996 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.005043996 = score(doc=4871,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.12 = coord(3/25)
    
    Content
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Date
    31.12.1996 19:29:41
    22. 1.2006 18:34:49
  20. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.00
    0.0022798576 = product of:
      0.056996442 = sum of:
        0.056996442 = weight(_text_:einzelne in 5496) [ClassicSimilarity], result of:
          0.056996442 = score(doc=5496,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.52023137 = fieldWeight in 5496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
      0.04 = coord(1/25)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht

Years

Languages

  • d 173
  • e 118
  • f 2
  • nl 1
  • More… Less…

Types

  • a 260
  • el 19
  • m 16
  • x 3
  • p 2
  • r 2
  • s 1
  • More… Less…

Classifications