Search (968 results, page 1 of 49)

  • × theme_ss:"Suchmaschinen"
  1. Handbuch Internet-Suchmaschinen 3 : Suchmaschinen zwischen Technik und Gesellschaft (2014) 0.50
    0.5043392 = product of:
      0.5763877 = sum of:
        0.109952435 = weight(_text_:informatik in 341) [ClassicSimilarity], result of:
          0.109952435 = score(doc=341,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.4783569 = fieldWeight in 341, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=341)
        0.011050926 = weight(_text_:in in 341) [ClassicSimilarity], result of:
          0.011050926 = score(doc=341,freq=8.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.18034597 = fieldWeight in 341, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=341)
        0.18147562 = weight(_text_:beziehung in 341) [ClassicSimilarity], result of:
          0.18147562 = score(doc=341,freq=4.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.6145522 = fieldWeight in 341, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.046875 = fieldNorm(doc=341)
        0.045384526 = weight(_text_:zu in 341) [ClassicSimilarity], result of:
          0.045384526 = score(doc=341,freq=6.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.34011546 = fieldWeight in 341, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=341)
        0.1300115 = weight(_text_:mensch in 341) [ClassicSimilarity], result of:
          0.1300115 = score(doc=341,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.52016425 = fieldWeight in 341, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.046875 = fieldNorm(doc=341)
        0.03280172 = weight(_text_:und in 341) [ClassicSimilarity], result of:
          0.03280172 = score(doc=341,freq=10.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.328536 = fieldWeight in 341, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=341)
        0.065710954 = product of:
          0.13142191 = sum of:
            0.13142191 = weight(_text_:gesellschaft in 341) [ClassicSimilarity], result of:
              0.13142191 = score(doc=341,freq=10.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.6576102 = fieldWeight in 341, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.046875 = fieldNorm(doc=341)
          0.5 = coord(1/2)
      0.875 = coord(7/8)
    
    Abstract
    Suchmaschinen sind auf der einen Seite technische Werkzeuge, auf der anderen Seite erlangen sie durch die millionenfache tägliche Nutzung eine gesellschaftliche Bedeu-tung. Im dritten Band des Handbuch Internet-Suchmaschinen bieten führende Exper-ten aus Wissenschaft und Praxis einen Einblick in aktuelle Entwicklungen, neue Techno-logien und gesellschaftliche Auswirkungen der populären Suchdienste. Mit mittlerweile drei Bänden liegt das umfassendste deutschsprachige Werk zum The-ma Suchmaschinen vor, das alle wesentlichen Aspekte des Themas behandelt. Das Themenspektrum der bereits erschienenen Bände wird noch einmal wesentlich erwei-tert; wichtige Themen aus den vorangegangenen Bänden werden vertieft dargestellt. Damit ist das Handbuch auch ein unverzichtbares Nachschlagewerk zu allen Fragen rund um Suchmaschinen. Das Buch richtet sich an alle, die sich als Forscher, Entwickler oder Nutzer von Suchma-schinen mit dem Thema Suche beschäftigen.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Footnote
    Rez. in: IWP 65(2014) H.2, S.147-149 (C. Cazan)
    RSWK
    Suchmaschine / Technik / Gesellschaft / Aufsatzsammlung
    Subject
    Suchmaschine / Technik / Gesellschaft / Aufsatzsammlung
  2. Levy, S.: In the plex : how Google thinks, works, and shapes our lives (2011) 0.31
    0.31293038 = product of:
      0.35763472 = sum of:
        0.090706125 = weight(_text_:informatik in 9) [ClassicSimilarity], result of:
          0.090706125 = score(doc=9,freq=8.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.3946243 = fieldWeight in 9, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.010192611 = weight(_text_:in in 9) [ClassicSimilarity], result of:
          0.010192611 = score(doc=9,freq=20.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.16633868 = fieldWeight in 9, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.105860785 = weight(_text_:beziehung in 9) [ClassicSimilarity], result of:
          0.105860785 = score(doc=9,freq=4.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.3584888 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.02161618 = weight(_text_:zu in 9) [ClassicSimilarity], result of:
          0.02161618 = score(doc=9,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.16199347 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.07584004 = weight(_text_:mensch in 9) [ClassicSimilarity], result of:
          0.07584004 = score(doc=9,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.30342916 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.019134339 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.019134339 = score(doc=9,freq=10.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.19164601 = fieldWeight in 9, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
        0.034284636 = product of:
          0.06856927 = sum of:
            0.06856927 = weight(_text_:gesellschaft in 9) [ClassicSimilarity], result of:
              0.06856927 = score(doc=9,freq=8.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.34310755 = fieldWeight in 9, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
      0.875 = coord(7/8)
    
    Abstract
    Few companies in history have ever been as successful and as admired as Google, the company that has transformed the Internet and become an indispensable part of our lives. How has Google done it? Veteran technology reporter Steven Levy was granted unprecedented access to the company, and in this revelatory book he takes readers inside Google headquarters-the Googleplex-to show how Google works. While they were still students at Stanford, Google cofounders Larry Page and Sergey Brin revolutionized Internet search. They followed this brilliant innovation with another, as two of Google's earliest employees found a way to do what no one else had: make billions of dollars from Internet advertising. With this cash cow (until Google's IPO nobody other than Google management had any idea how lucrative the company's ad business was), Google was able to expand dramatically and take on other transformative projects: more efficient data centers, open-source cell phones, free Internet video (YouTube), cloud computing, digitizing books, and much more. The key to Google's success in all these businesses, Levy reveals, is its engineering mind-set and adoption of such Internet values as speed, openness, experimentation, and risk taking. After its unapologetically elitist approach to hiring, Google pampers its engineers-free food and dry cleaning, on-site doctors and masseuses-and gives them all the resources they need to succeed. Even today, with a workforce of more than 23,000, Larry Page signs off on every hire. But has Google lost its innovative edge? It stumbled badly in China-Levy discloses what went wrong and how Brin disagreed with his peers on the China strategy-and now with its newest initiative, social networking, Google is chasing a successful competitor for the first time. Some employees are leaving the company for smaller, nimbler start-ups. Can the company that famously decided not to be evil still compete? No other book has ever turned Google inside out as Levy does with In the Plex.
    BK
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    54.01 / Geschichte der Informatik
    05.20 / Kommunikation und Gesellschaft
    Classification
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    54.01 / Geschichte der Informatik
    05.20 / Kommunikation und Gesellschaft
    Content
    The world according to Google: biography of a search engine -- Googlenomics: cracking the code on internet profits -- Don't be evil: how Google built its culture -- Google's cloud: how Google built data centers and killed the hard drive -- Outside the box: the Google phone company. and the Google t.v. company -- Guge: Google moral dilemma in China -- Google.gov: is what's good for Google, good for government or the public? -- Epilogue: chasing tail lights: trying to crack the social code.
    Footnote
    Deutsche Übersetzung als: Googlenomics : Wie Google denkt, arbeitet und unser Leben verändert. Heidelberg, Neckar ; mitp/bhv ; 2011. Rez. in: JASIST 62(2011) no.12, S.2540-2543 (C. Leslie)
  3. Wätjen, H.-J.: Mensch oder Maschine? : Auswahl und Erschließung vonm Informationsressourcen im Internet (1996) 0.12
    0.1156682 = product of:
      0.2313364 = sum of:
        0.01302364 = weight(_text_:in in 3161) [ClassicSimilarity], result of:
          0.01302364 = score(doc=3161,freq=4.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.21253976 = fieldWeight in 3161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.15322003 = weight(_text_:mensch in 3161) [ClassicSimilarity], result of:
          0.15322003 = score(doc=3161,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.61301947 = fieldWeight in 3161, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.03457605 = weight(_text_:und in 3161) [ClassicSimilarity], result of:
          0.03457605 = score(doc=3161,freq=4.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34630734 = fieldWeight in 3161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.030516665 = product of:
          0.06103333 = sum of:
            0.06103333 = weight(_text_:22 in 3161) [ClassicSimilarity], result of:
              0.06103333 = score(doc=3161,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.38690117 = fieldWeight in 3161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3161)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Date
    2. 2.1996 15:40:22
    Footnote
    Erscheint in: Zeitschrift für Bibliothekswesen und Bibliographie; abzurufen vom Server des Verfassers: http://waetjen.bis.uni-oldenburg.de
    Source
    Vortrag anläßlich des Workshops'Internet-basierte Informationssysteme der Bibliotheken', 15.-17.1.96 in Bielefeld
  4. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.11
    0.11488534 = product of:
      0.22977068 = sum of:
        0.005525463 = weight(_text_:in in 1705) [ClassicSimilarity], result of:
          0.005525463 = score(doc=1705,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.09017298 = fieldWeight in 1705, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1705)
        0.026202766 = weight(_text_:zu in 1705) [ClassicSimilarity], result of:
          0.026202766 = score(doc=1705,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.19636573 = fieldWeight in 1705, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=1705)
        0.15923092 = weight(_text_:mensch in 1705) [ClassicSimilarity], result of:
          0.15923092 = score(doc=1705,freq=6.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.6370685 = fieldWeight in 1705, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.046875 = fieldNorm(doc=1705)
        0.03881152 = weight(_text_:und in 1705) [ClassicSimilarity], result of:
          0.03881152 = score(doc=1705,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.38872904 = fieldWeight in 1705, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1705)
      0.5 = coord(4/8)
    
    Abstract
    Zeigt übersichtlich die Usability anhand des Suchprozesses und der Mensch-Maschine-Interaktion mit den entstehenden Problemen auf. Bewertet die Kritikalität der identifizierten Usability-Probleme und verdeutlicht deren Auswirkungen auf die User Experience der Suche. Die konsequente Optimierung der User Experience und der Usability einer Suchmaschine ist Basis einer erfolgreichen Entwicklung von Websites. Suchmaschinen werden nicht nur als Funktion innerhalb von Websites eingesetzt, sondern kommen auch in unterschiedlichen Ausprägungen innerhalb von Applikationen, Online-Shops oder Intranets von Unternehmen vor. Die Autorin beschreibt, welche Evaluationsmethoden eingesetzt werden, um eine Suchmaschine zu optimieren, wo typische Probleme auftreten und wie sich diese auf die User Experience auswirken. Best-Practice-Beispiele und Tipps helfen sowohl Einsteigern als auch Experten bei der Umsetzung einer übergreifenden User Experience-Strategie und geben Hilfestellung bei der wirtschaftlichen Betrachtung im Rahmen der Produktentwicklung.
    RSWK
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
    Subject
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
  5. Strebe, R.: Empirische Untersuchtung von emotionalen Reaktionen im Prozess der Informationsrecherche im Web (2009) 0.11
    0.112836815 = product of:
      0.22567363 = sum of:
        0.011165447 = weight(_text_:in in 2769) [ClassicSimilarity], result of:
          0.011165447 = score(doc=2769,freq=6.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.1822149 = fieldWeight in 2769, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2769)
        0.14970975 = weight(_text_:beziehung in 2769) [ClassicSimilarity], result of:
          0.14970975 = score(doc=2769,freq=2.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.5069797 = fieldWeight in 2769, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2769)
        0.030569892 = weight(_text_:zu in 2769) [ClassicSimilarity], result of:
          0.030569892 = score(doc=2769,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.22909334 = fieldWeight in 2769, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2769)
        0.034228545 = weight(_text_:und in 2769) [ClassicSimilarity], result of:
          0.034228545 = score(doc=2769,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34282678 = fieldWeight in 2769, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2769)
      0.5 = coord(4/8)
    
    Abstract
    In diesem Beitrag wird eine Studie vorgestellt, die eine beobachtende Perspektive auf affektive Phänomene entlang des Websuchprozesses eröffnet. Untersuchungsgegenstände sind Art, Häufigkeit und Intensität von Gefühlsausschlägen, die Auslöser von emotionalen Reaktionen sowie der Zusammenhang zwischen Gefühlsausschlägen und bestimmten Aktionsmerkmalen. Die Websuche zeigt sich als gefühlsintensive Tätigkeit. Besonders häufige Auslöser von Gefühlsausschlägen stehen in enger Beziehung zu erwarteter Relevanz und Relevanzbewertung. Bei Auslösern von besonders intensiven emotionalen Reaktionen ist der optische Eindruck einer Webseite ein wichtiger Faktor. Weiterer Untersuchungsbedarf zeigt sich vor allem in der Frage der Rolle affektiver Vorgänge innerhalb des Relevanzkonzeptes.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.2, S.75-81
  6. Schmidt, W.: ¬Die Erfolgreiche : Wie die Suchmaschine wurde, was sie ist (2006) 0.10
    0.0976246 = product of:
      0.15619937 = sum of:
        0.032395046 = weight(_text_:informatik in 5938) [ClassicSimilarity], result of:
          0.032395046 = score(doc=5938,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.14093725 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.007975319 = weight(_text_:in in 5938) [ClassicSimilarity], result of:
          0.007975319 = score(doc=5938,freq=24.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.1301535 = fieldWeight in 5938, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.030880256 = weight(_text_:zu in 5938) [ClassicSimilarity], result of:
          0.030880256 = score(doc=5938,freq=16.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.23141924 = fieldWeight in 5938, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.03403151 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.03403151 = score(doc=5938,freq=62.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34085333 = fieldWeight in 5938, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.050917234 = sum of:
          0.024489027 = weight(_text_:gesellschaft in 5938) [ClassicSimilarity], result of:
            0.024489027 = score(doc=5938,freq=2.0), product of:
              0.19984774 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.045047637 = queryNorm
              0.12253842 = fieldWeight in 5938, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.01953125 = fieldNorm(doc=5938)
          0.026428208 = weight(_text_:22 in 5938) [ClassicSimilarity], result of:
            0.026428208 = score(doc=5938,freq=6.0), product of:
              0.15774915 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045047637 = queryNorm
              0.16753313 = fieldWeight in 5938, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=5938)
      0.625 = coord(5/8)
    
    Content
    "Wer Google googelt, sieht zuallererst Google. Das klingt wie ein plattes Witzchen - ist aber schon das wesentliche Geheimnis des unheimlichen Erfolgs einer Suchmaschine, der es gelungen ist, binnen weniger Jahre das Internet, die Suche nach Informationen und die Werbewelt zu verändern und sich unentbehrlich zu machen. Googeln wurde buchstäblich zum Begriff. "Keine andere Marke hat je so schnell globale Anerkennung gefunden wie Google", schreiben David A. Vise, ein Reporter der "Washington Post", und sein Kollege Mark Malseed in ihrem Buch über den sagenhaften Aufstieg des Unternehmens, das Suchergebnisse in 35 Sprachen liefert. Allein in Deutschland nutzen heute über 22 Millionen Menschen die Suchmaschine mit den bunten Buchstaben regelmäßig - unter den Internet-Surfern hierzulande ein Marktanteil von 65 Prozent. Sie suchen nach Neuigkeiten über ihre Filmhelden, prüfen die Schreibweise von Fremdwörtern oder forschen wie Detektive nach Wissenswertem über die Frau oder den Mann, mit dem sie sich abends treffen werden - zum Rendezvous oder Geschäftsessen. Längst gelten in manchen Kreisen Menschen als Langweiler, über die selbst Google nichts weiß. Wie dieser Erfolg möglich war, beschreiben Vise und Malseed auf rund 300 Seiten. Man kann es mit dem Dichter Victor Hugo (1802-1885) aber auch kürzer sagen: "Nichts ist so mächtig wie eine Idee, deren Zeit gekommen ist." Noch mächtiger freilich ist eine Idee, die von der Konkurrenz übernommen wird - in totaler Verkennung der Bedürfnisse von Internet-Nutzern. Eine solche Idee brachte 1997 Google hervor - und hat längst Wirtschafts- und Kulturgeschichte geschrieben. Der zentrale Gedanke der beiden damals 22-jährigen Google-Gründer Larry Page und Sergey Brin ist simpel: Wenn die Lawine der im Internet abrufbaren Informationen weiter derart anschwillt, dann brauchen die Nutzer des weltweiten Netzes einen exzellenten Suchhund. Nicht umsonst ist der Name der Suchmaschine abgeleitet von dem Wort Googol, womit in der Mathematik eine absurd große Zahl mit hundert Nullen bezeichnet wird - eine Anspielung auf die unermessliche und längst unüberschaubare Weite des Internets.
    Hilfe beim Finden tut also Not. Nur reicht es eben nicht, wenn ein Recherche-Programm für einen Begriff wie "Klimawandel" möglichst viele Fundstellen auflistet, durch die man sich dann erst einmal mühsam klicken und lesen muss. Das verbesserte Betriebsklima in der Firma XY ist für die meisten eher unwichtig. Page und Brin, Informatik-Studenten an der kalifornischen Universität Stanford, erkannten schnell, dass sie eine sinnvolle Rangfolge innerhalb der Suchergebnisse zustande bringen mussten, um Google zum Erfolg zu verhelfen Ihr erster Geldgeber Andy Bechtolsheim, der 1998 hilfreiche 100 000 Dollar beisteuerte, begründete seine Investition mit den Mängeln marktüblicher Suchmaschinen: "Damals benutzte ich das Internet fast ausschließlich für Suchanfragen, und ein Teil meiner Frustration rührte daher, dass AltaVista - die Standard-Suchmaschine - nicht sehr gut war." Viele der zahlreichen Ergebnisse waren unbrauchbar. Die 1995 in den USA ebenfalls gängige Suchmaschine Inktomi fand sich damals nicht einmal selber, wenn man ihren Namen in die Suchmaske eintippte. Google hingegen findet Relevantes meist zielsicher in Bruchteilen einer Sekunde - und sich selbst natürlich zuerst. Genial war auch die bis heute konsequent umgesetzte Idee, die Google-Startseite frei von Reklame und vor allem von Fotos und albernen Mätzchen zu halten. Derartiges verursacht nicht nur zusätzliche Ladezeit - gerade auf älteren Rechnern und bei langsamen Netz-Zugängen. Es wirkt auch unseriös und vermittelt den Eindruck, dass einem auf solchen Seiten vor allem etwas angedreht werden soll. Während die Konkurrenz ihre wichtigste Seite überluden, hielten Brin und Page an ihrem asketischen Portal fest. Dieses besteht bis heute praktisch nur aus dem Namen Google, kleinen Schaltflächen für die einzelnen Dienste und dem Suchfeld. Allenfalls werden zu besonderen Anlässen wie weltweit relevanten Jubiläen, Jahrestagen oder Sport-Ereignissen einzelne Buchstaben des Namenszuges meist witzig verändert.
    Im Rückblick klingt es unglaublich, dass viele Insider noch Ende der 90er Jahre sträflich das Potenzial einer zielführenden Suchmaschine unterschätzten - darunter auch die Verantwortlichen des großen Such-Dienstes AltaVista und des redaktionell betreuten Netzverzeichnisses Yahoo, das seine Kunden mit allerlei Diensten an sich zu binden suchte. Beide lehnten es früh ab, bei Google einzusteigen - später indes kooperierte Yahoo dann doch. "Niemand konnte sich für die Finanzierung von Suchanfragen begeistern", berichtet Buchautor David Wise. Getrieben von ihrer Idee, möglichst vielen Menschen möglichst alle Informationen des globalen Datennetzes zugänglich zu machen, wussten Brin und Page hingegen genau, dass sie auf dem richtigen Weg waren - und sie verfolgten ihn so unbeirrt wie Lenkraketen. Dabei behielten sie auch finanziell immer das Steuer in der Hand - keineswegs selbstverständlich gegen Ende der 90er Jahre, als die Internet-Euphorie und der Boom so genannter Dotcom-Unternehmen dazu führten, dass nahezu jedem großmäuligen Jung-Unternehmer Millionen Dollar, Pfund oder Mark an Risiko-Kapital in den Rachen gestopft wurden. Doch Brin und Page waren nicht nur standhaft und sparsam. Sie haben von Anfang an versucht, ihrer Belegschaft das Arbeiten bei Google möglichst angenehm zu machen, indem sie ihre Mitarbeiter so unentgeltlich wie exquisit verköstigten und ihr diverse Dienste bereitstellten - vom Kindergarten über Friseur und Wäscherei bis zum FitnessStudio. Obendrein erwarten sie bis heute, dass jeder Programmierer mindestens ein Fünftel seiner Arbeitszeit komplett darauf verwendet, eigenen Einfällen nachzuspüren und Neues auszuprobieren. Die so ermunterten Mitarbeiter haben nützliche Neuerungen hervorgebracht: von der - auf die USA beschränkten - Telefonnummern-Suche durch Eingabe von Namen und Postleitzahl ins Suchfeld über die automatische Korrektur von Eingabefehlern ("Meinten Sie:... ") bis hin zum Nachrichten-Service "Google News oder zum opulenten Foto-Archiv: Die Bildersuche hält heute rund 1,2 Milliarden Stück bereit. Auch Google Earth, das Satelliten-Aufnahmen auf den heimischen PC bringt, hat Aufsehen erregt.
    Eine zentrale Stütze des Erfolges ist die gewaltige Rechnerleistung, über die Google verfügt. Verteilt auf mehrere Standorte, durchforsten bei Suchanfragen weit über hunderttausend billige, aber bedarfsgerecht optimierte PC-Rechner über acht Milliarden gespeicherte Internet-Angebote. "Keine Gesellschaft verfügt über eine größere Rechnerleistung als Google mit seinem Netzwerk gewöhnlicher, aber aufgemotzter PCs", schreiben David Vise und Mark Malseed. Das Riesenheer aus Klein-Computern hält so viele Reserven vor, dass es nicht schlimm ist, wenn immer wieder einige davon den Geist aufgeben. Sie werden einfach umgangen, und andere Rechner übernehmen ihre Arbeit. Deshalb funktioniert Google seit Jahren praktisch reibungslos und stellt seine Nutzer zufrieden - ganz anders, als es die berüchtigten "schweren Ausnahmefehler" des Microsoft-Betriebssystems Windows immer wieder getan haben. Über sie ist selbst Microsoft-Gründer Bill Gates bei Präsentationen schon manches Mal gestolpert."
    Date
    3. 5.1997 8:44:22
  7. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.09
    0.089035 = product of:
      0.142456 = sum of:
        0.06479009 = weight(_text_:informatik in 4333) [ClassicSimilarity], result of:
          0.06479009 = score(doc=4333,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.2818745 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.00651182 = weight(_text_:in in 4333) [ClassicSimilarity], result of:
          0.00651182 = score(doc=4333,freq=4.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.10626988 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.043671276 = weight(_text_:zu in 4333) [ClassicSimilarity], result of:
          0.043671276 = score(doc=4333,freq=8.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.32727623 = fieldWeight in 4333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0122244805 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.0122244805 = score(doc=4333,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.12243814 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.015258333 = product of:
          0.030516665 = sum of:
            0.030516665 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.030516665 = score(doc=4333,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S
  8. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.09
    0.08676972 = product of:
      0.13883156 = sum of:
        0.06479009 = weight(_text_:informatik in 867) [ClassicSimilarity], result of:
          0.06479009 = score(doc=867,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.2818745 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.0046045524 = weight(_text_:in in 867) [ClassicSimilarity], result of:
          0.0046045524 = score(doc=867,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.07514416 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.021835638 = weight(_text_:zu in 867) [ClassicSimilarity], result of:
          0.021835638 = score(doc=867,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.16363811 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.032342933 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.032342933 = score(doc=867,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.015258333 = product of:
          0.030516665 = sum of:
            0.030516665 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.030516665 = score(doc=867,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
  9. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.09
    0.08639634 = product of:
      0.13823414 = sum of:
        0.008833063 = weight(_text_:in in 3684) [ClassicSimilarity], result of:
          0.008833063 = score(doc=3684,freq=46.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.14415148 = fieldWeight in 3684, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.045384523 = weight(_text_:zu in 3684) [ClassicSimilarity], result of:
          0.045384523 = score(doc=3684,freq=54.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.34011543 = fieldWeight in 3684, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.04333717 = weight(_text_:mensch in 3684) [ClassicSimilarity], result of:
          0.04333717 = score(doc=3684,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.1733881 = fieldWeight in 3684, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.03457605 = weight(_text_:und in 3684) [ClassicSimilarity], result of:
          0.03457605 = score(doc=3684,freq=100.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34630734 = fieldWeight in 3684, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.0061033326 = product of:
          0.012206665 = sum of:
            0.012206665 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.012206665 = score(doc=3684,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
    Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend.
    Die Beiträge, eine Art E-Mails mit gestrengen Usancen, finden sich dann auf vielen kooperierenden Servern, auf uralten nichtkommerziellen Fido- oder Zerberus-Boxen und bei großen Internet-Anbietern à la T-Online, die die Eintrage wie kommunizierende Röhren untereinander austauschen. Die mit Newsreader-Zusatzsoftware zu lesenden, zuweilen ruppigen Beiträge dieser Zehntausenden von Newsgroups im "Usenet" sind ein wahres Dorado für Tips und Meinungen, für praktische Hilfe und unermüdliche Kollegialität - oft zum Ärger der Produkthersteller, gelegentlich zur Entlastung von deren Kundendiensten. Frage-und-Antwort-Fäden (Threads) verästeln sich zu einem Baum der Meinungen und des Wissens. Einen Überblick gibt etwa Tile.net oder groups.google.com, versuchsweise mag man als Sprachfreund bei http://faql.de einsteigen. Über www.deja.com konnte man überall browsergeführt mitdiskutieren und seinen Senf dazugeben. Ende 2000 ging es damit bergab, am 12. Februar stellte Deja seinen Dienst ein. Domänenname und Datenbank (mehr als ein Terabyte mit über 500 Millionen Beiträgen seit 1995) wurden von Altavista an Google verkauft und sind unter der alten Adresse lebendig. Nur neue Beiträge kann man dort nicht mehr loswerden und muß sich dazu schon direkt zum jeweiligen Forum bemühen. Manche Suchmaschinen bieten maschinelle Übersetzungen. Die Ergebnisse helfen Amerikanern, uns zu verstehen, mit Phantasie und gutem Willen, Auf seiner sehenswerten englischen Suchseite bietet dies Google an, so wie seit längerem Altavista - vom selben Übersetzer. Gefundenen Text bekommt man ins Englische übersetzt; klickt man weiter, so auch die weiteren Seiten. Man sollte sich nicht darüber lustig machen, selbst wenn eines Dichters Werk als "its factory" erscheint und die Stadt Essen als "meal". Die Wunscheinstellungen (speicherbar, wenn man Cookies zuläßt) bei Google lassen übrigens zu, daß die gefundenen Seiten, ob original, ob übersetzt, in einem neuen Browserfenster aufscheinen.'Alle anderen machen das auch wenn man die Shift-Taste beim Klicken drückt. Hoffen wir, daß uns diese offene Wunderwelt des Internet mit ihren Suchmaschinen noch lange erhalten bleibt und daß kommende Multimedia-Inhalte nicht in einem Wust von Formaten untergehen. Das Netz muß Schranken überwinden können, für Maschinen, letztlich aber von Mensch zu Mensch
    Date
    22. 6.2005 9:52:00
  10. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.08
    0.082169004 = product of:
      0.16433801 = sum of:
        0.077748105 = weight(_text_:informatik in 5025) [ClassicSimilarity], result of:
          0.077748105 = score(doc=5025,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.3382494 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.005525463 = weight(_text_:in in 5025) [ClassicSimilarity], result of:
          0.005525463 = score(doc=5025,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.09017298 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.037056312 = weight(_text_:zu in 5025) [ClassicSimilarity], result of:
          0.037056312 = score(doc=5025,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.2777031 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.04400813 = weight(_text_:und in 5025) [ClassicSimilarity], result of:
          0.04400813 = score(doc=5025,freq=18.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.4407773 = fieldWeight in 5025, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.5 = coord(4/8)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Field
    Lebensmittel und Ernährung
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  11. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.08
    0.07811802 = product of:
      0.15623604 = sum of:
        0.06413892 = weight(_text_:informatik in 329) [ClassicSimilarity], result of:
          0.06413892 = score(doc=329,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.27904153 = fieldWeight in 329, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.010192611 = weight(_text_:in in 329) [ClassicSimilarity], result of:
          0.010192611 = score(doc=329,freq=20.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.16633868 = fieldWeight in 329, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.03744032 = weight(_text_:zu in 329) [ClassicSimilarity], result of:
          0.03744032 = score(doc=329,freq=12.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.2805809 = fieldWeight in 329, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.044464186 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.044464186 = score(doc=329,freq=54.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
      0.5 = coord(4/8)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
  12. Henzinger, M.; Wiesemann, M.: Google-Forschungschefin Monika Henzinger beklagt Manipulationen von Suchmaschinen : "Tricks der Porno-Branche" (2002) 0.08
    0.0752842 = product of:
      0.1505684 = sum of:
        0.009023043 = weight(_text_:in in 1137) [ClassicSimilarity], result of:
          0.009023043 = score(doc=1137,freq=12.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.14725187 = fieldWeight in 1137, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1137)
        0.08554843 = weight(_text_:beziehung in 1137) [ClassicSimilarity], result of:
          0.08554843 = score(doc=1137,freq=2.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.28970268 = fieldWeight in 1137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.03125 = fieldNorm(doc=1137)
        0.04621734 = weight(_text_:zu in 1137) [ClassicSimilarity], result of:
          0.04621734 = score(doc=1137,freq=14.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.34635663 = fieldWeight in 1137, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=1137)
        0.009779584 = weight(_text_:und in 1137) [ClassicSimilarity], result of:
          0.009779584 = score(doc=1137,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.09795051 = fieldWeight in 1137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1137)
      0.5 = coord(4/8)
    
    Abstract
    FOCUS: Viele Menschen sind frustriert, weil sie im Internet vergebens suchen. Warum versagen Suchmaschinen so häufig? Henzinger: Gerade Netz-Neulinge formulieren Suchbegriffe falsch, fragen zu allgemein oder zu speziell. Suchmaschinen haben Schwierigkeiten, aus einem oder zwei Wörtern die Gedanken eines Nutzers abzulesen. FOCUS: Google könnte dennoch Einsteigern bei der Suche mehr helfen ... Henzinger: ... indem wir aus den täglich 150 Millionen Suchanfragen Rückschlüsse ziehen, richtig. In Zukunft könnte die Software den Nutzer fragen: Du hast "BMW" eingegeben, willst du einen Wagen kaufen, mieten oder etwas über die Technik erfahren? FOCUS: Noch allerdings muss man sich durch lange Ergebnislisten wühlen. Henzinger. Suchmaschinen können heute eine Website zwar nach einem bestimmten Wort durchsuchen, aber nicht den Sinn verstehen. In dieser Hinsicht hinkt die Entwicklung den Anforderungen der Nutzer hinterher. FOCUS: Was unternehmen Sie dagegen? Henzinger: Wir arbeiten zum Beispiel verstärkt daran, zueinander in Beziehung stehende Internet-Seiten in eine Themen-Schublade zu stecken. Die Gefahr ist jedoch, dass Homepage-Betreiber das System unterlaufen, um weit oben auf der Ergebnisliste zu landen. FOCUS: Was anscheinend schon oft passiert ist, denn Google gerät wie andere Dienste immer wieder in die Schlagzeilen, weil Suchergebnisse von außen manipuliert wurden. Henzinger: Wu beobachten eine Art Wettrüsten: Unsere Programmierer entwickeln immer kompliziertere Aufspürmechanismen; kommerzielle Anbieter versuchen, diese zu knacken. Die Pornobranche trickst am raffiniertesten. FOCUS: Auf welche Weise? Henzinger. Sie versucht etwa, unseren elektronischen Spürhund auf eine falsche Fährte zu locken: Wird der GoogleSuchroboter identifiziert, zeigen ihm Sexanbieter eine völlig harmlose Homepage an. Wenn unsere Nutzer aber später diese Seite aufrufen, landen sie auf einer Pornoseite. Es kostet uns viel Geld, diese ständigen Attacken abzuwehren. FOCUS: Auch das so genannte "unsichtbare Web"ist für Sie ein Problem. Laut Experten soll dieses 500-mal größer sein als die vergleichsweise mickrigen zwei Milliarden Websites, die die digitalen Schnüffelverfahren heutzutage erfassen können. Henzinger: Es ist bislang schwer, zum Beispiel auf wissenschaftliche Datenbanken zuzugreifen. Deren Betreiber sind aber dabei, eine Brücke zwischen Suchprogrammen und Archiven zu schlagen. Parallel dazu arbeitet Google - ähnlich wie Spezial-Dienstleister - an Mechanismen, die bei bestimmten Anfragen nur passende Quellen zum Thema durchforsten. In fünf bis zehn Jahren wird das Netz viel weiter erschlossen sein. Intelligente Suchdienste werden dann auf eine Frage nicht mehr eine Website, sondern eine im Internet recherchierte Antwort auswerfen.
  13. Baker, N.: Seelenverkäufer oder Helden? : Ken Aulettas Buch über die weltbeherrschende Suchmaschine Google (2009) 0.07
    0.074357755 = product of:
      0.118972406 = sum of:
        0.025916036 = weight(_text_:informatik in 3224) [ClassicSimilarity], result of:
          0.025916036 = score(doc=3224,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.1127498 = fieldWeight in 3224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.015625 = fieldNorm(doc=3224)
        0.0066407803 = weight(_text_:in in 3224) [ClassicSimilarity], result of:
          0.0066407803 = score(doc=3224,freq=26.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.10837445 = fieldWeight in 3224, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=3224)
        0.03906078 = weight(_text_:zu in 3224) [ClassicSimilarity], result of:
          0.03906078 = score(doc=3224,freq=40.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.29272476 = fieldWeight in 3224, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.015625 = fieldNorm(doc=3224)
        0.037559204 = weight(_text_:und in 3224) [ClassicSimilarity], result of:
          0.037559204 = score(doc=3224,freq=118.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.37618607 = fieldWeight in 3224, product of:
              10.862781 = tf(freq=118.0), with freq of:
                118.0 = termFreq=118.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3224)
        0.00979561 = product of:
          0.01959122 = sum of:
            0.01959122 = weight(_text_:gesellschaft in 3224) [ClassicSimilarity], result of:
              0.01959122 = score(doc=3224,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.09803073 = fieldWeight in 3224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3224)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Content
    "Ich gebe zu, ich mag Google. Ich mag Larry Page, der zumindest auf den Youtube-Videos, die ich gesehen habe, mit seiner graumelierten Ponyfrisur zwar schüchtern, aber sehr intelligent wirkt. Sergey Brin mag ich auch, der nicht so schüchtern zu sein scheint, aber genauso intelligent und auch witzig ist. Ken Auletta, der Autor dieses fesselnden, etwas wirren Buches, in dem jede Menge berühmte Personen vorkommen, scheint beide nicht leiden zu können. Von Page sagt er, er habe "eine Stimme wie Kermit der Frosch", was nicht besonders nett ist, und Brin wird als arroganter Streber und Prahlhans beschrieben, der auf der Uni nur die besten Noten hatte, Schlösser knackte, um sich Computer-Zubehör "auszuleihen" und einmal alle Türen im Informatik-Trakt neu nummerierte. "Die Chefs von Google sind keine kaltschnäuzigen Geschäftsleute; sie sind kaltschnäuzige Ingenieure", schreibt Auletta, wobei "kaltschnäuzig" aber nicht wirklich zuzutreffen scheint. Aulettas eigene Kaltschnäuzigkeit mag teilweise auf Brins und Pages Widerwillen zurückzuführen sein, sich für das Buch befragen zu lassen. "Es hat Monate gedauert, bis man mich endlich empfing", schreibt er in den Danksagungen. "Die Gründer und Manager von Google sind ganz wild darauf, Bücher zu digitalisieren, haben aber wenig Interesse daran, welche zu lesen." Aulettas Buch werden sie wohl schon etwas genauer ansehen. Ich las es in drei langen Sitzungen und habe viel gelernt - über Googles "Kalten Krieg" mit Facebook, über Googles Rangeleien mit Viacom, über Googles Rolle in den "Yahoo-Microsoft-Kämpfen" und über den langsamen Entfremdungsprozess zwischen Google und seinem ehemaligen Verbündeten Apple. Auletta bedient sich gerne militärischer Vergleiche und Metaphern und führt dabei genauso Fürst von Metternich ins Feld wie auch Beispiele moderner Kriegsführung: "Datenschutz-Probleme werden weiterhin wie bewaffnete Drohnen über uns fliegen", schreibt er, "bereit, das Vertrauen zu torpedieren, auf das die Unternehmen angewiesen sind, die mit persönlichen Daten betraut sind." Aber er lässt auch die menschlichen Züge nicht aus: An dem Tag des für Google so überaus erfolgreichen Aktienangebotes zückt Larry Page sein Handy und sagt: "Das muss ich gleich meiner Mutter erzählen!"
    Der Autor unterhält sich allerdings hauptsächlich mit Managern vom Fach, und darin liegt die große Stärke des Buches. Auletta hat anscheinend jeden Geschäftsführer der Branche in Nordamerika interviewt, und die meisten haben an Google, so wie es heute ist, irgendetwas auszusetzen. Google sei unersättlich, sagen sie, es wolle zu hoch hinaus, es sei zu reich, zu selbstgefällig, es verdiene Geld mit den Inhalten anderer Leute. Ein ungenannter "prominenter Geschäftsführer" lehnte sich während der Google-Zeitgeist-Konferenz 2007 zu Auletta hinüber und flüsterte ihm eine rhetorische Frage ins Ohr: Welchen realen Wert, so wollte er wissen, produziert Google für die Gesellschaft? Moment mal. Welchen realen Wert? Mein lieber Herr prominenter Geschäftsführer - ist das Ihr Ernst? Haben Sie schon mal was von Street View und Google Maps gehört? Haben Sie schon mal Gebrauch gemacht von der kleinen, aber feinen Taschenrechner-Funktion im Google-Suchfeld? Oder sich von Google das lokale Kinoprogramm anzeigen lassen? Oder sich mal eben schnell etwas von Google übersetzen lassen? Sind Sie nicht auch schon in Google Books auf interessante Entdeckungsreisen durch die Literatur des 19. Jahrhunderts gegangen oder haben mit dem dynamischen Graphen von Google Finance gespielt? Und bestimmt haben Sie sich schon als Architekt versucht mit Google SketchUp. Und als Sie zum ersten Mal sahen, wie bei Google Earth die Erde sich dreht und näher rückt, da haben Sie bestimmt auch einen Aufschrei des Entzückens von sich gegeben. Und es würde mich sehr wundern, wenn Sie nicht für das ein oder andere Thema bei den automatischen Benachrichtigungen von Google News angemeldet wären. Es gibt sicher kein anderes Software-Unternehmen, das so viele Produkte entwickelt hat, die so intelligent gebaut sind, so schnell arbeiten, so viel Spaß machen und obendrein noch umsonst sind. Haben Sie denn noch nie im Internet etwas gesucht?
    Denn das eine kann ich Ihnen sagen - ich erinnere mich noch, wie es früher war, vor Google. Nicht dass es ein dunkles Zeitalter gewesen wäre: Es gab schnurlose Telefone, und die Leute durften bequeme Pullis tragen. Es gab AltaVista und AskJeeves, HotBot und Excite, Infoseek und Northern Light - mit seinen tief verzweigten Ergebnislisten und dem eleganten Segelschiff im Logo. Und wenn man mal mehrere Gewässer gleichzeitig durchkämmen wollte, gab es MetaCrawler. Aber die Ausbeute war ziemlich wahllos und dauerte vor allem lange. Man saß da, mampfte seine Chips und wartete darauf, dass der Bildschirm sich füllte. 1998 kam dann Google, sauber und unglaublich schnell. Es war wie eine aufgeräumte weiße Schreibtischplatte mit einer einzelnen reifen Tomate darauf. Keine Werbung - Google war damals noch gegen Werbung eingestellt. Außerdem war es hochintelligent; man bekam fast nie einen falschen Treffer. Man musste die beiden unzertrennlichen Studenten Page und Brin, die ihre geheimen Suchalgorithmen zur Anwendung gebracht hatten, nicht kennen, um zu wissen, dass es sich um zwei geniale Computerfreaks in Turnschuhen, aber mit viel Selbstvertrauen handelte. Der weiße Bildschirm und der Button mit der Aufschrift "I´m Feeling Lucky" brachte das klar zum Ausdruck. Google würde uns allen Glück bringen; das war die Botschaft. Und so kam es dann auch.Warum sind die prominenten Geschäftsführer dann nicht zufrieden? Weil Google viel Geld mit Werbung verdient, und die Werbeetats sind begrenzt. Im letzten Jahr kam der Gewinn fast ausschließlich aus der einzig wirklich lästigen Sparte, die das Unternehmen betreibt - den kleinen, billigen Textanzeigen. Die so genannten AdWords- oder AdSense-Anzeigen sind schnell geladen und angeblich "höflich", in dem Sinne, dass sie nicht blinken und keine Popup-Fenster aufmachen, und man sieht sie jetzt überall - auf Seiten wie dem Portal der Washington Post, auf MySpace und Discovery.com und auch auf Hunderttausenden von kleinen Seiten und Blogs. "Das ist unsere eigentliche Einnahmequelle", sagte Larry Page in einer Sitzung, an der Auletta 2007 teilnahm. Geworben wird für "Laser-Haarentfernung", "Gläubige Singles", "Mit Verkehrsstaus Geld verdienen", "Haben Sie Anspruch auf Schmerzensgeld?", "Anti-Bauchfett-Rezepte", "Bloggen Sie sich reich", "Jeder kann ein Buch schreiben" und so weiter. Unzählige Internetseiten sind aufgetaucht, die nur dazu dienen, AdSense-Anzeigen zu schalten. Sie benutzen gestohlene Inhalte oder schmeißen Texte von Wikipedia und ähnlichen Seiten zusammen und säumen die Ränder mit Google-Anzeigen. Diese funktionieren pro Klick, das heißt, der Auftraggeber zahlt nur dann an Google, wenn auch tatsächlich jemand auf die Anzeige klickt. Pro Aufruf zahlt er dann 25 Cent oder einen Dollar oder (für ganz besonders beliebte Stichworte wie "Schmerzensgeldanspruch") auch zehn Dollar oder mehr.
    Aber denken Sie mal nach - wann haben Sie das letzte Mal auf eine dieser Anzeigen geklickt? Eigentlich noch nie? Ich auch nicht. Und doch verdiente Google im letzten Jahr 21,8 Milliarden Dollar, wovon 95 Prozent aus den AdWords- und AdSense-Anzeigen kamen. (Der kleine Rest kam aus Banner- und Video-Anzeigen und einigen anderen Produkten.) Diese plumpen, ziemlich aufdringlichen kleinen Anzeigen (denen Schönheit oder Humor abgehen, die wir von der Werbung für Fernsehen, Zeitschriften oder Radio gewöhnt sind) sind die Grundlage von Googles Finanzimperium, auch wenn das schwer zu glauben ist - ein Imperium der kommerziellen Querverweise. Die Werbeeinnahmen sorgen bei Google für hohe Aktienpreise, und das gibt dem Unternehmen absolute Handlungsfreiheit. Als 2006 Googles Aktienwert bei 132 Milliarden Dollar lag, wurde You- Tube für 1,65 Milliarden eingekauft. "Die können alles kaufen, was sie wollen, und Geld für alles mögliche rauswerfen", zitiert Auletta Irwin Gottlieb, den Chef von GroupM, einem der größten Konkurrenten Googles. Wenn Microsoft sich um DoubleClick bemüht, kann Google mal eben 3,1 Milliarden auf den Tisch legen und DoubleClick kaufen. Wenn Cloud Computing eine lukrative Investition zu sein scheint, dann kann Google 20 oder 50 oder auch 70 riesige Rechenzentren an geheimen Orten auf der ganzen Welt bauen, von denen jedes einzelne so viel Strom verbraucht wie eine Kleinstadt. Anfang des Monats gab Google den Kauf eines Unternehmens namens AdMob für 750 Millionen in Aktien bekannt; AdMob ist spezialisiert auf Bannerwerbung für Handys. "Wenn man mal eine gewisse Größe erreicht hat, muss man sich nach neuen Wachstumsmöglichkeiten umsehen", ließ sich Auletta von Ivan Seidenberg erklären, dem Geschäftsführer von Verizon. "Und dann mischt man sich in die Geschäftsbereiche von allen anderen ein." Jetzt versteht man auch, warum die von Auletta befragten Topmanager nicht gut auf Google zu sprechen sind.
    Google produziert weiterhin fleißig seine kleinen Perlen: Google Voice, das gesprochene Mailbox-Nachrichten in Emails umwandelt; Chrome, ein schneller und intelligenter Webbrowser und Android, das neue Handy-Betriebssystem. Eines der neuesten Projekte ist die Espresso Book Machine, die Bücher on Demand ausdruckt und bindet. Aber vielleicht wird hier zu viel auf einem Gelände produziert; vielleicht werden die Leute es bald leid, dass überall "Google" draufsteht. Googles berühmter Slogan "Don´t be evil" klingt mehr und mehr wie eine düstere Prophezeiung. Als sie noch an der Uni waren, wetterten Page und Brin gegen Suchmaschinen, die zu viel Werbung hatten. "Die waren strikt gegen Werbung", zitiert Auletta Ram Shriram, einer der ersten Google-Investoren, "das waren Puristen." Inzwischen sehen sie das nicht mehr so eng. Jetzt geht es darum, ständig neues Futter für ein hungriges, 180 Milliarden schweres Monstrum aufzutreiben. Auletta berichtet von einem ungewöhnlichen Einstellungstest, den Brin einmal mit einer Bewerberin für eine Anwaltsposition machte: "Setzen Sie mir einen Vertrag auf", sagte Brin zu der Anwältin, "und zwar für den Verkauf meiner Seele an den Teufel." Das war 2002, dem Jahr, als Google die interne Arbeit an einem Projekt aufgenommen hatte, das später mal AdSense werden sollte. Mittlerweile fliegen Page und Brin in ihrer privaten Boing 767 herum und sprechen ganz ernsthaft über Green IT, während der Strom für die Gratis-Videos auf YouTube Berge von Kohle verbraucht. Noch ist ihnen keine Idee gekommen, wie sie das Verlustgeschäft YouTube "monetisieren" - d.h. also Profit damit erwirtschaften - können. Allerdings ist mir schon aufgefallen, dass auf Philip DeFrancos beliebten YouTube-Videos inzwischen Werbebanner von Samsung laufen. "Der Vorteil, etwas gratis anzubieten, besteht darin, dass man 100 Prozent Marktanteile hat", erklärt Googles Geschäftsführer Eric Schmidt. "Gratis ist das richtige Konzept." Vielleicht eine Weile lang - aber die Frage ist, ob es auf Dauer funktioniert. "Für Zeitungen", schreibt Auletta, "bedeutet das Gratis-Konzept den Untergang." Vielleicht bekommt man am Ende - sogar im Internet - nur noch das, wofür man auch bezahlt hat."
    Footnote
    Vgl. auch: URL: http://www.fr-online.de/in_und_ausland/kultur_und_medien/themen/?em_cnt=2133109&em_loc=3643. Besprechung zu: Auletta, Ken: Googled: the end of the world as we know it.
  14. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.07
    0.072661325 = product of:
      0.116258115 = sum of:
        0.03665081 = weight(_text_:informatik in 3635) [ClassicSimilarity], result of:
          0.03665081 = score(doc=3635,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.1594523 = fieldWeight in 3635, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.011050926 = weight(_text_:in in 3635) [ClassicSimilarity], result of:
          0.011050926 = score(doc=3635,freq=72.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.18034597 = fieldWeight in 3635, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.033827625 = weight(_text_:zu in 3635) [ClassicSimilarity], result of:
          0.033827625 = score(doc=3635,freq=30.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.25350708 = fieldWeight in 3635, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.024933144 = weight(_text_:und in 3635) [ClassicSimilarity], result of:
          0.024933144 = score(doc=3635,freq=52.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24972577 = fieldWeight in 3635, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.00979561 = product of:
          0.01959122 = sum of:
            0.01959122 = weight(_text_:gesellschaft in 3635) [ClassicSimilarity], result of:
              0.01959122 = score(doc=3635,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.09803073 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
    Weitere Rez. in: Mitt. VÖB 58(2005) H.4, S.116-119 (O. Oberhauser)
  15. Leyh, M.: ¬Das Google File System (2005) 0.07
    0.068925954 = product of:
      0.13785191 = sum of:
        0.051832072 = weight(_text_:informatik in 863) [ClassicSimilarity], result of:
          0.051832072 = score(doc=863,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.2254996 = fieldWeight in 863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.0073672836 = weight(_text_:in in 863) [ClassicSimilarity], result of:
          0.0073672836 = score(doc=863,freq=8.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.120230645 = fieldWeight in 863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.04621734 = weight(_text_:zu in 863) [ClassicSimilarity], result of:
          0.04621734 = score(doc=863,freq=14.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.34635663 = fieldWeight in 863, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.032435212 = weight(_text_:und in 863) [ClassicSimilarity], result of:
          0.032435212 = score(doc=863,freq=22.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.3248651 = fieldWeight in 863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
      0.5 = coord(4/8)
    
    Abstract
    Die Bedeutung der Suchmaschine Google hat in den letzten Jahren sehr stark zuge-nommen. Durch die immer komplexer werdenden Googleapplikationen sowie die im-mer stärkere Nutzung der Suchmaschine ist die zu verwaltende Datenmenge in den letzten Jahren stark angewachsen. Dies war die Ursache für die Entwicklung neuer Konzepte, um eine konsistente Datenhaltung und -verwaltung sowie eine schnelle Da-tenrettung zu ermöglichen. Im Mittelpunkt dieser Entwicklung steht die Sicherung der Performance des Systems, das Milliarden von Dokumenten verwaltet und mehrere Tausende Treffer pro Suchanfrage nach Relevanz ordnet. Der Umfang und die Komple-xität des Systems stellen dabei sowohl besondere Herausforderungen an die einzuset-zende Hardware, als auch an die Konzepte der Datenverteilung und -sicherung. Eine neue Entwicklung ist dabei der Verzicht auf teure Spezialhardware. Alle Anwendungen laufen auf gewöhnlicher PC-Hardware und sind somit sehr wirtschaftlich im Vergleich zu teurerer Spezialhardware. Durch den Einsatz gewöhnlicher PC-Hardware sind Aus-fälle von Festplatten oder ganzer Server wesentlich wahrscheinlicher, es wird sogar mit dem Ausfall von Systemen gerechnet. Dass Anwendungen dennoch so zuverlässig und schnell funktionieren, liegt an der Struktur des von Google entwickelten Dateisystems. Das Google File Systems (kurz GFS) bietet eine hohe Fehlertoleranz, Fehler werden automatisch entdeckt und Wiederherstellungen automatisiert ausgeführt, so dass die Nachteile der Hardwarekonfiguration abgefangen werden können. Dieser Fehlertoleranz kommt bei multiplen Clustern mit Größen von bis zu 300 TB sowie mehreren hunderten Clientzugriffen sehr große Bedeutung zu. Eine weitere strukturelle Besonderheit des Google File Systems stellt die Verwaltung von Schreibzugriffen dar. Bestehende Dateien werden nicht durch schwer zu kontrollie-rende Schreiboperationen, sondern vielmehr durch leichter zu verwaltende "Append" Operationen erweitert. Es ist somit möglich, dass viele Nutzer gleichzeitig auf größere Dateien schreibend zugreifen, ohne dass eine ständige Synchronisation zwischen diesen Nutzern stattfinden muss. Die dadurch realisierten Vorteile bezüglich Performance, Verlässlichkeit und Verfüg-barkeit sowie die daraus resultierenden Anforderungen an das System sollen im Mittel-punkt dieser Arbeit stehen. Es soll ein Einblick in die Funktionsweisen und Komplexitä-ten des Google File Systems gegeben und weiterhin die strukturelle Umsetzung der Anforderungen aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/MichaelLeyh.pdf
  16. Kink, N.; Hess, T.: Suchmaschinen als Substitut traditioneller Medien? : Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen (2007) 0.07
    0.06862454 = product of:
      0.13724908 = sum of:
        0.051832072 = weight(_text_:informatik in 390) [ClassicSimilarity], result of:
          0.051832072 = score(doc=390,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.2254996 = fieldWeight in 390, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.0073672836 = weight(_text_:in in 390) [ClassicSimilarity], result of:
          0.0073672836 = score(doc=390,freq=8.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.120230645 = fieldWeight in 390, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.042788938 = weight(_text_:zu in 390) [ClassicSimilarity], result of:
          0.042788938 = score(doc=390,freq=12.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.3206639 = fieldWeight in 390, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.035260793 = weight(_text_:und in 390) [ClassicSimilarity], result of:
          0.035260793 = score(doc=390,freq=26.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.3531656 = fieldWeight in 390, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
      0.5 = coord(4/8)
    
    Abstract
    Das Internet hat sich in den letzten Jahren rasant verbreitet und zählt weltweit über eine Milliarde Nutzer. Parallel dazu haben Suchmaschinen den Informationsmarkt erobert. Sie sind mittlerweile nicht mehr >nur< der zentrale Zugangsweg zum umfangreichen Informationsangebot des Internets, sondern haben darüber hinaus nachhaltige Wirkung auf die Medienbranche. Allein auf die Suchmaschine Google greifen monatlich ca. 380 Millionen Informationssuchende zu (vgl. Google 2006). Der Börsengang des SuchmaschinenAnbieters spiegelt die wachsende Bedeutung wider. Auch empirische Studien belegen, dass Suchmaschinen zunehmend in den Alltag integriert werden, eine Gatekeeper-Funktion wahrnehmen und dadurch die Informationsbeschaffung grundlegend ändern können. Da die zunehmende Verbreitung von Suchmaschinen mit einer Verdrängung alternativer Medienangebote einhergehen kann, hat diese Entwicklung auch das Interesse traditioneller Medienunternehmen geweckt. Allerdings wurden die Folgen für Medienanbieter bislang kaum erforscht. Mit unserer empirischen Studie wollen wir genau diese Forschungslücke verkleinern. Im Vordergrund stehen Fragestellungen zur Beurteilung und Anwendung von Suchmaschinen aus Nutzersicht und den sich daraus ergebenden Konsequenzen für traditionelle Medienanbieter. Konkret sollen erste Anhaltspunkte dafür gewonnen werden, welche Medien' Informationssuchende durch den Gebrauch von Suchmaschinen, ersetzen, welche sie ergänzend nutzen und warum. Aufgrund des relativ neuen Forschungsgebiets haben wir zur Untersuchung der Fragestellungen qualitative Forschungsmethoden eingesetzt, die einen umfassenden Überblick über das Untersuchungsgebiet schaffen. Es wurde ein Leitfaden konzipiert, anhand dessen den Befragten in einer trichterförmig angeordneten Reihenfolge mehrere offene Fragen gestellt wurden. Diese trichterförmige Anordnung - angefangen bei allgemeinen bis hin zu gezielten Fragen - stellte sicher, dass die Interviewpartner ihre persönliche Meinung uneingeschränkt äußern konnten und erlaubte gleichzeitig eine Quantifizierung der konkreten Antworten. Nach erfolgreichem Pretest wurde das Leitfadeninterview im Sommer 2005 mit 19 Personen durchgeführt. Unsere Stichprobe setzt sich aus acht Experten aus thematiknahen Berufen und elf Studenten unterschiedlicher Studienrichtungen zusammen. Zu den Experten zählen Unternehmensberater, Praktiker und Wissenschaftler aus dem Medienbereich. Die Studenten stammen aus den Fachrichtungen Informatik, BWL und Psychologie. Alle ca. 50-minütigen Interviews wurden mit einem Diktiergerät aufgezeichnet und wortwörtlich transkribiert. Anhand eines Excel-basierten Codeplans wurden die Aussagen diversen Haupt- und Unterkategorien zugeordnet und in ausgewählten Kategorien Häufigkeiten berechnet. Wie bei qualitativen Verfahren üblich, wurde auf Statement-Basis ausgewertet, sodass die Summe der Statements die Anzahl an Befragten übersteigen kann. Um den Aussagen Einzelner kein zu großes Gewicht zu geben, wurden wiederholte Aussagen zu einer Kategorie nur einfach gewertet. Die Ergebnisse der Befragung werden nachfolgend vorgestellt und eingeordnet.
  17. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.07
    0.0679943 = product of:
      0.1359886 = sum of:
        0.06479009 = weight(_text_:informatik in 868) [ClassicSimilarity], result of:
          0.06479009 = score(doc=868,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.2818745 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.007975319 = weight(_text_:in in 868) [ClassicSimilarity], result of:
          0.007975319 = score(doc=868,freq=6.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.1301535 = fieldWeight in 868, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.030880256 = weight(_text_:zu in 868) [ClassicSimilarity], result of:
          0.030880256 = score(doc=868,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.23141924 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.032342933 = weight(_text_:und in 868) [ClassicSimilarity], result of:
          0.032342933 = score(doc=868,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.32394084 = fieldWeight in 868, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.5 = coord(4/8)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
  18. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.07
    0.067192286 = product of:
      0.13438457 = sum of:
        0.009209105 = weight(_text_:in in 1671) [ClassicSimilarity], result of:
          0.009209105 = score(doc=1671,freq=32.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.15028831 = fieldWeight in 1671, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
        0.053467765 = weight(_text_:beziehung in 1671) [ClassicSimilarity], result of:
          0.053467765 = score(doc=1671,freq=2.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.18106417 = fieldWeight in 1671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
        0.03936476 = weight(_text_:zu in 1671) [ClassicSimilarity], result of:
          0.03936476 = score(doc=1671,freq=26.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.29500282 = fieldWeight in 1671, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
        0.032342933 = weight(_text_:und in 1671) [ClassicSimilarity], result of:
          0.032342933 = score(doc=1671,freq=56.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.32394084 = fieldWeight in 1671, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
      0.5 = coord(4/8)
    
    Content
    "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista -
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
    Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ.
    Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
  19. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.07
    0.065426745 = product of:
      0.13085349 = sum of:
        0.007280437 = weight(_text_:in in 5956) [ClassicSimilarity], result of:
          0.007280437 = score(doc=5956,freq=20.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.11881335 = fieldWeight in 5956, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
        0.04758967 = weight(_text_:zu in 5956) [ClassicSimilarity], result of:
          0.04758967 = score(doc=5956,freq=38.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.356641 = fieldWeight in 5956, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
        0.038305007 = weight(_text_:mensch in 5956) [ClassicSimilarity], result of:
          0.038305007 = score(doc=5956,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.15325487 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
        0.03767838 = weight(_text_:und in 5956) [ClassicSimilarity], result of:
          0.03767838 = score(doc=5956,freq=76.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.3773797 = fieldWeight in 5956, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
      0.5 = coord(4/8)
    
    Abstract
    Die Internet-Suchmaschinen von Google, Yahoo, Lycos & Co. liefern längst mehr als nur eine inhaltliche Orientierung im unübersichtlichen Webseiten-Dschungel. Mit ihrem Geschäftsmodell, die gesammelten Kundendaten für Anzeigenkunden zu erschließen, haben die Suchmaschinenbetreiber der Internetwirtschaft kommerzielles Leben eingehaucht. Dass sich vor allem die Google-Gründer Brin und Page damit nicht nur Freunde geschaffen haben, beschreibt Autor John Battelle ebenso, wie er die Notwendigkeit darlegt, dem Internet geschäftlich tragfähige Strukturen zu geben. Seine Erfahrung als Insider der Internetwirtschaft - er ist Mitgründer des Magazins "Wired" - kommt der faktenreichen Analyse zugute. Wir empfehlen dieses Buch allen Internetnutzern, die wissen wollen, was hinter Google & Co. steckt und wie die Suchmaschinen unser Leben beeinflussen. --- Eine ebenso profunde wie lesbare Geschichte der Online-Suche und ihrer Erlösmodelle erzählt der Suchmaschinenexperte John Battelle. Faszinierend ist, sich wieder einmal vor Augen zu führen, * dass von den Altavistas und Excites der frühen Internettage quasi nur Yahoo überlebt hat. * dass Google, 1998 gegründet, erst seit gut 5 Jahren die Internetsuche bestimmt * dass die Google Adwords als Einnahmequelle auf der Google-Seite erst seit etwa 4 Jahren existieren * dass das Google Adsense Konzept (Google-Kleinanzeigen auf beliebigen Homepages) erst vor drei Jahren eingeführt wurde. John Battelle geht davon aus, dass sich bei der Internetsuche noch so viel tun wird, dass er sich nicht auf die Google-Geschichte beschränken wollte. So macht er aus der Not eine Tugend und beschreibt die Wellen der Internetsuche. Er macht deutlich, warum sich bestimmte Konzepte und Ideen durchgesetzt haben und kehrt immer wieder zur Kernidee zurück: Die perfekte Suche erkennt die Absicht des Suchenden. Die Relevanz der Ergebnisse ist das A und O. Sie zu erhöhen, daran arbeiten sämtliche bekannten und noch unbekannten Anbieter. Fazit: Ein Buch, das für Google-Fans genauso interessant ist wie für die, die sich über die Bedeutung und den Einfluss der Suche auf unser Leben klar werden wollen. Suchalgorithmen sind ein hochtechnisches Gebiet. Battelle gelingt es jedoch, auch die technischen Ansätze allgemein verständlich zu beschreiben.
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
    So gehen die Autoren dem Motto von Google, "don't be evil", nach und beschreiben die vielen Reibungspunkte, die Google als börsenorientiertes Unternehmen zum einen, und ihre Ideale der perfekten Suche zum anderen, verursachen. Ein besonderes Augenmerk widmet Battelle dem Geschäftsmodell von Google und anderer Suchdienste - der Werbung. Mit dem unaufhaltsamen Aufstieg des e-Commerce ist auch die Such-Wirtschaft zig Milliarden Dollar schwer geworden - die Symbiose ist nahezu perfekt. Viele (kleine) Unternehmen hängen direkt oder indirekt von Suchmaschinen ab, beziehen zu einem Großteil ihre Kunden direkt über deren Trefferlisten. Es ist daher nicht verwunderlich, dass Spam und Anti-Spam-Maßnahmen der Suchmaschinen ein Wettrennen ist, welches weite Kreise zieht. Im letzten Drittel des Buches verlässt Battelle die Vergangenheit und wendet sich den Trends und den künftigen Absichten der Such-Industrie zu. Hier bleibt alles spekulativ; Trends werden vorsichtig angerissen. Die Branche ist zu dynamisch, um hier eine klarere Vision zu entwickeln, doch der Autor nennt zahlreiche Möglichkeiten, Gefahren und Grenzen, die in Zukunft Google & Co begegnen werden. Empfehlung: Das Buch, welches auch ohne technischen Hintergrund sehr gut verständlich bleibt, ist sehr locker geschrieben. Es ist eine gute, sehr persönliche Einführung in die Geschichte der Suchmaschinen und der Suche allgemein, der Focus auf Google ist jedoch bestimmend. Das Interesse des Autors für geschäftliche Vorgänge, Strategien und Geschäftsentscheidungen ist für die Börsen-interessierten Leserinnen besonders spannend. Themen wie Informationsethik kommen am Rande vor, sind aber meist im Zusammenhang mit Googles Unternehmensphilosophie beschrieben und werden nicht in der Tiefe diskutiert. Ohne Zweifel, das Buch lebt am Puls der Zeit."
  20. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.07
    0.06517644 = product of:
      0.13035288 = sum of:
        0.010418912 = weight(_text_:in in 5523) [ClassicSimilarity], result of:
          0.010418912 = score(doc=5523,freq=16.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.17003182 = fieldWeight in 5523, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.030256351 = weight(_text_:zu in 5523) [ClassicSimilarity], result of:
          0.030256351 = score(doc=5523,freq=6.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.22674364 = fieldWeight in 5523, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.045870315 = weight(_text_:und in 5523) [ClassicSimilarity], result of:
          0.045870315 = score(doc=5523,freq=44.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.4594286 = fieldWeight in 5523, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.043807305 = product of:
          0.08761461 = sum of:
            0.08761461 = weight(_text_:gesellschaft in 5523) [ClassicSimilarity], result of:
              0.08761461 = score(doc=5523,freq=10.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.4384068 = fieldWeight in 5523, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5523)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer

Years

Languages

Types

  • a 813
  • el 94
  • m 78
  • x 15
  • s 14
  • r 4
  • p 2
  • More… Less…

Subjects

Classifications