Search (971 results, page 1 of 49)

  • × theme_ss:"Suchmaschinen"
  1. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.25
    0.2544145 = product of:
      0.29681692 = sum of:
        0.067829974 = weight(_text_:methoden in 4333) [ClassicSimilarity], result of:
          0.067829974 = score(doc=4333,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.012407403 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.012407403 = score(doc=4333,freq=2.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.12243814 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.16513926 = weight(_text_:techniken in 4333) [ClassicSimilarity], result of:
          0.16513926 = score(doc=4333,freq=6.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5878706 = fieldWeight in 4333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0066092606 = weight(_text_:in in 4333) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=4333,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.029344378 = weight(_text_:den in 4333) [ClassicSimilarity], result of:
          0.029344378 = score(doc=4333,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.030973306 = score(doc=4333,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S
  2. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.19
    0.19234532 = product of:
      0.26928344 = sum of:
        0.09592607 = weight(_text_:methoden in 4063) [ClassicSimilarity], result of:
          0.09592607 = score(doc=4063,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.037222207 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.037222207 = score(doc=4063,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.0953432 = weight(_text_:techniken in 4063) [ClassicSimilarity], result of:
          0.0953432 = score(doc=4063,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.011447575 = weight(_text_:in in 4063) [ClassicSimilarity], result of:
          0.011447575 = score(doc=4063,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18406484 = fieldWeight in 4063, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.029344378 = weight(_text_:den in 4063) [ClassicSimilarity], result of:
          0.029344378 = score(doc=4063,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.71428573 = coord(5/7)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.18
    0.18173341 = product of:
      0.25442678 = sum of:
        0.08139597 = weight(_text_:methoden in 3911) [ClassicSimilarity], result of:
          0.08139597 = score(doc=3911,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 3911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.025788303 = weight(_text_:und in 3911) [ClassicSimilarity], result of:
          0.025788303 = score(doc=3911,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.2544829 = fieldWeight in 3911, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.11441184 = weight(_text_:techniken in 3911) [ClassicSimilarity], result of:
          0.11441184 = score(doc=3911,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 3911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.007931113 = weight(_text_:in in 3911) [ClassicSimilarity], result of:
          0.007931113 = score(doc=3911,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.024899531 = weight(_text_:den in 3911) [ClassicSimilarity], result of:
          0.024899531 = score(doc=3911,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 3911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.71428573 = coord(5/7)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
  4. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.16
    0.15598114 = product of:
      0.21837358 = sum of:
        0.10852795 = weight(_text_:methoden in 261) [ClassicSimilarity], result of:
          0.10852795 = score(doc=261,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.45804384 = fieldWeight in 261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.044390075 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.044390075 = score(doc=261,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.438048 = fieldWeight in 261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.0074775247 = weight(_text_:in in 261) [ClassicSimilarity], result of:
          0.0074775247 = score(doc=261,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.120230645 = fieldWeight in 261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.033199377 = weight(_text_:den in 261) [ClassicSimilarity], result of:
          0.033199377 = score(doc=261,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
        0.024778644 = product of:
          0.049557287 = sum of:
            0.049557287 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
              0.049557287 = score(doc=261,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.30952093 = fieldWeight in 261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=261)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Footnote
    Vgl. auch den Bericht in: nfd 53(2002) H.2, S.71
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
  5. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.14
    0.14053102 = product of:
      0.19674343 = sum of:
        0.09592607 = weight(_text_:methoden in 5773) [ClassicSimilarity], result of:
          0.09592607 = score(doc=5773,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 5773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.037222207 = weight(_text_:und in 5773) [ClassicSimilarity], result of:
          0.037222207 = score(doc=5773,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3673144 = fieldWeight in 5773, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.0066092606 = weight(_text_:in in 5773) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=5773,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 5773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.041499224 = weight(_text_:den in 5773) [ClassicSimilarity], result of:
          0.041499224 = score(doc=5773,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 5773, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
              0.030973306 = score(doc=5773,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 5773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5773)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  6. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.13
    0.13202988 = product of:
      0.23105226 = sum of:
        0.13429649 = weight(_text_:methoden in 3700) [ClassicSimilarity], result of:
          0.13429649 = score(doc=3700,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.56680036 = fieldWeight in 3700, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.04913081 = weight(_text_:und in 3700) [ClassicSimilarity], result of:
          0.04913081 = score(doc=3700,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4848303 = fieldWeight in 3700, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.0065428335 = weight(_text_:in in 3700) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=3700,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 3700, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.041082133 = weight(_text_:den in 3700) [ClassicSimilarity], result of:
          0.041082133 = score(doc=3700,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 3700, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
      0.5714286 = coord(4/7)
    
    Abstract
    Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  7. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.13
    0.12941144 = product of:
      0.22647001 = sum of:
        0.14098196 = weight(_text_:methoden in 5025) [ClassicSimilarity], result of:
          0.14098196 = score(doc=5025,freq=6.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.5950165 = fieldWeight in 5025, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.04466665 = weight(_text_:und in 5025) [ClassicSimilarity], result of:
          0.04466665 = score(doc=5025,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4407773 = fieldWeight in 5025, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.0056081433 = weight(_text_:in in 5025) [ClassicSimilarity], result of:
          0.0056081433 = score(doc=5025,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.09017298 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.035213258 = weight(_text_:den in 5025) [ClassicSimilarity], result of:
          0.035213258 = score(doc=5025,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.26870608 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.5714286 = coord(4/7)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Field
    Lebensmittel und Ernährung
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  8. Gillitzer, B.: Yewno (2017) 0.12
    0.121386416 = product of:
      0.16994098 = sum of:
        0.07674085 = weight(_text_:methoden in 3447) [ClassicSimilarity], result of:
          0.07674085 = score(doc=3447,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.32388592 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.035788424 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.035788424 = score(doc=3447,freq=26.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.011823005 = weight(_text_:in in 3447) [ClassicSimilarity], result of:
          0.011823005 = score(doc=3447,freq=20.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19010136 = fieldWeight in 3447, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.033199377 = weight(_text_:den in 3447) [ClassicSimilarity], result of:
          0.033199377 = score(doc=3447,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 3447, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.024778644 = score(doc=3447,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  9. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.11
    0.1143555 = product of:
      0.13341475 = sum of:
        0.027131988 = weight(_text_:methoden in 4871) [ClassicSimilarity], result of:
          0.027131988 = score(doc=4871,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.11451096 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.027183259 = weight(_text_:und in 4871) [ClassicSimilarity], result of:
          0.027183259 = score(doc=4871,freq=60.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.26824853 = fieldWeight in 4871, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.03813728 = weight(_text_:techniken in 4871) [ClassicSimilarity], result of:
          0.03813728 = score(doc=4871,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.1357629 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.0072400826 = weight(_text_:in in 4871) [ClassicSimilarity], result of:
          0.0072400826 = score(doc=4871,freq=30.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.11641283 = fieldWeight in 4871, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.027527468 = weight(_text_:den in 4871) [ClassicSimilarity], result of:
          0.027527468 = score(doc=4871,freq=22.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2100572 = fieldWeight in 4871, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.006194661 = product of:
          0.012389322 = sum of:
            0.012389322 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.012389322 = score(doc=4871,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Die Onlinesuche im Internet bringt zwar viele, oft aber nur wenige nützliche Resultate. Nun sollen Websurfer dank verbesserter Software maßgeschneiderte Suchergebnisse erhalten - nicht nur bei Texten, sondern auch bei Bildern und Musikstücken
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    22. 1.2006 18:34:49
  10. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.11
    0.10732724 = product of:
      0.18782265 = sum of:
        0.0328269 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.0328269 = score(doc=867,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.13483565 = weight(_text_:techniken in 867) [ClassicSimilarity], result of:
          0.13483565 = score(doc=867,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47999436 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.004673453 = weight(_text_:in in 867) [ClassicSimilarity], result of:
          0.004673453 = score(doc=867,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.07514416 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.030973306 = score(doc=867,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
  11. Bekavac, B.; Herget, J.; Hierl, S.; Öttl, S.: Visualisierungskomponenten bei webbasierten Suchmaschinen : Methoden, Kriterien und ein Marktüberblick (2007) 0.10
    0.100863956 = product of:
      0.17651191 = sum of:
        0.094961956 = weight(_text_:methoden in 399) [ClassicSimilarity], result of:
          0.094961956 = score(doc=399,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.045957662 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.045957662 = score(doc=399,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.0065428335 = weight(_text_:in in 399) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=399,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.029049452 = weight(_text_:den in 399) [ClassicSimilarity], result of:
          0.029049452 = score(doc=399,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
      0.5714286 = coord(4/7)
    
    Abstract
    Bei webbasierten Suchmaschinen werden zunehmend auch Systeme mit Visualisierungskomponenten für die Ergebnisrepräsentation angeboten. Die Ansätze der Visualisierungen unterscheiden sich hierbei in der Zielsetzung und Ausführung deutlich voneinander. Der folgende Beitrag beschreibt die verwendeten Visualisierungsmethoden, systematisiert diese anhand einer Klassifikation, stellt die führenden frei zugänglichen Systeme vor und vergleicht diese anhand der Kriterien aus der Systematisierung. Die typischen Problemfelder werden identifiziert und die wichtigsten Gemeinsamkeiten und Unterschiede der untersuchten Systeme herausgearbeitet. Die Vorstellung zweier innovativer Visualisierungskonzepte im Bereich der Relationenvisualisierung innerhalb von Treffermengen und der Visualisierung von Relationen bei der Suche nach Musik schließen den Beitrag ab.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.149-158
  12. Quirmbach, S.: Usability und user experience in Suchmaschinen (2011) 0.09
    0.0912115 = product of:
      0.21282682 = sum of:
        0.1534817 = weight(_text_:methoden in 350) [ClassicSimilarity], result of:
          0.1534817 = score(doc=350,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.64777184 = fieldWeight in 350, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=350)
        0.044390075 = weight(_text_:und in 350) [ClassicSimilarity], result of:
          0.044390075 = score(doc=350,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.438048 = fieldWeight in 350, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=350)
        0.014955049 = weight(_text_:in in 350) [ClassicSimilarity], result of:
          0.014955049 = score(doc=350,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.24046129 = fieldWeight in 350, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=350)
      0.42857143 = coord(3/7)
    
    Abstract
    Dieser Artikel befasst sich mit der Usability und User Experience in Suchmaschinen. Dabei fließt eine detaillierte Betrachtung der Nutzer, des Suchprozesses und der Suchkomponenten mit ein. Er gibt sowohl eine Einführung in die Methoden zur Messung und Optimierung der Usability als auch wie diese mit Hilfe von Metriken gemessen und gezielt optimiert werden kann. Dies erfolgt durch eine Vorstellung der Usability-Methoden mit Anwendungsbeispielen als Hilfestellung im Rahmen der Produktentwicklung einer Suche.
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  13. Calishain, T.; Dornfest, R.; Adam, D.J.: Google Pocket Guide (2003) 0.09
    0.090438075 = product of:
      0.15826662 = sum of:
        0.0328269 = weight(_text_:und in 6) [ClassicSimilarity], result of:
          0.0328269 = score(doc=6,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.32394084 = fieldWeight in 6, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6)
        0.0953432 = weight(_text_:techniken in 6) [ClassicSimilarity], result of:
          0.0953432 = score(doc=6,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 6, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6)
        0.009346906 = weight(_text_:in in 6) [ClassicSimilarity], result of:
          0.009346906 = score(doc=6,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 6, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6)
        0.020749612 = weight(_text_:den in 6) [ClassicSimilarity], result of:
          0.020749612 = score(doc=6,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 6, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6)
      0.5714286 = coord(4/7)
    
    Footnote
    Rez. in: CD Info. 2003, H.10, S.12: "Der Aufwand bei der Internet-Recherche hat sich mit guten Suchmaschinen wie Google verringert. Trotzdem verbringt der Computeranwender eine Menge Zeit mit dem Öffnen und Schließen von Webseiten, die er nie benötigt hätte. Wer die Arbeitsweise und die Möglichkeiten von Google kennt, kann die Suche besser eingrenzen und gelangt oft direkter zur gewünschten Homepage. Der Google Pocket Guide erläutert die Funktionsweise des am meisten verwendeten Suchtools, gibt Tipps zur optimalen Nutzung und liefert gleich einige konkrete Beispiele für deren Verwendung. Neben den Optionen der Erweiterten Suche widmet sich das kleine Taschenbuch auch der Syntax der Website, sodass die Befehle direkt in die Suchmaske eingegeben werden können. Auch Zusatz-Features wie die Bildersuche, der Webkatalog, die Newsgroup-Datenbank sowie der seit Kurzem auch in deutscher Sprache verfügbare News-Bereich werden behandelt. Der Google Pocket Guide erläutert kurz und bündig die wichtigsten Techniken und hilft Zeit und Aufwand zu sparen. Der brandneue Titel ist derzeit leider nur in Englisch verfügbar."
  14. Kwiatkowski, M.; Höhfeld, S.: Thematisches Aufspüren von Web-Dokumenten : eine kritische Betrachtung von Focused Crawling-Strategien (2007) 0.09
    0.09016886 = product of:
      0.1577955 = sum of:
        0.035093434 = weight(_text_:und in 153) [ClassicSimilarity], result of:
          0.035093434 = score(doc=153,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34630734 = fieldWeight in 153, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
        0.0953432 = weight(_text_:techniken in 153) [ClassicSimilarity], result of:
          0.0953432 = score(doc=153,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
        0.0066092606 = weight(_text_:in in 153) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=153,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 153, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
        0.020749612 = weight(_text_:den in 153) [ClassicSimilarity], result of:
          0.020749612 = score(doc=153,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
      0.5714286 = coord(4/7)
    
    Abstract
    Herkömmliche Suchmaschinen dienen der breiten Websuche und zeichnen sich zumeist durch eine hohe Quantität - nicht unbedingt durch Qualität - ihrer Ergebnismengen aus. Zum Suchen von Dokumenten wird ein allgemeiner Crawler eingesetzt, der Webseiten aufspürt, um große Datenspeicher aufzubauen. Focused Crawler gehen dagegen gezielter vor: Nicht enorme Datenmengen sollen durchsucht, gespeichert und indexiert werden, sondern nur bestimmte, thematisch relevante Segmente des World Wide Web. Der Focused Crawler muss einen möglichst optimalen Weg durch das Web finden, um Knowledge Discovery zu betreiben. Dabei bleiben die für eine Thematik irrelevanten Bereiche des Web unberücksichtigt. Die Aufgabe wird dadurch erheblich verkleinert und der Ressourcenaufwand verringert. Ziel ist die Produktion qualifizierter Suchergebnisse zu einem bestimmten Wissensgebiet. Im Allgemeinen können Focused Crawling-Techniken für den Aufbau spezialisierter vertikaler Suchmaschinen eingesetzt werden. Sie sind darüber hinaus im Bereich der Digitalen Bibliotheken von Vorteil. Da diese oft über einen thematischen Schwerpunkt verfügen und der qualifizierten Literatur-Untersuchung dienen, müssen sie einen gewissen Qualitätsanspruch Genüge leisten und dabei lediglich Anfragen zu einem definierten Wissensbereich bedienen. Der Einsatz von Focused Crawling bietet sich also an, um eine hohe Dokument-Qualität in einer spezifischen Domäne zu gewährleisten. Dieser Review-Artikel beleuchtet grundlegende Ansätze des Focused Crawling und verfolgt diese bis in die aktuellen Entwicklungen. Praktische Einsatzgebiete und aktuelle Systeme untermauern die Bedeutsamkeit des Forschungsgebiets. Darüber hinaus wird eine kritische Betrachtung der aufgeführten Ansätze geleistet.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.2, S.69-82
  15. Bundenthal, A.: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF (2007) 0.08
    0.08471455 = product of:
      0.14825045 = sum of:
        0.054263975 = weight(_text_:methoden in 368) [ClassicSimilarity], result of:
          0.054263975 = score(doc=368,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.22902192 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=368)
        0.040925626 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.040925626 = score(doc=368,freq=34.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.40386027 = fieldWeight in 368, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=368)
        0.012400072 = weight(_text_:in in 368) [ClassicSimilarity], result of:
          0.012400072 = score(doc=368,freq=22.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19937998 = fieldWeight in 368, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=368)
        0.040660765 = weight(_text_:den in 368) [ClassicSimilarity], result of:
          0.040660765 = score(doc=368,freq=12.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31027505 = fieldWeight in 368, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=368)
      0.5714286 = coord(4/7)
    
    Abstract
    Ein Gespenst geht um in Europa, das Schreckgespenst der Dominanz einer profitorientierten Suchmaschine aus den USA, die das Wissen im alten Europa bedroht - Google. >Google, Word, Kleenex<: Diese Produktnamen stehen heute in einer Reihe, ein Produkt wurde zum Gattungsbegriff. Das Verb >googeln< wurde in den Duden aufgenommen und damit >geadelt<. Aber obwohl Google >Don't be evil< als inoffizielles Firmenmotto führt, schwingt das Medienecho zwischen Vergötterung und Verteufelung. Google werden die weitgehende Monopolstellung, Beeinflussung der Rechercheergebnisse, das Horten von vertraulichen Benutzerdaten, Anglozentrismus und Zensur vorgeworfen. Welche Bedeutung haben Internet, World Wide Web, Browser und Suchmaschinen heute für die Recherche der Journalisten und der Dokumentationsbereiche im ZDF? Als ein Kollege im Jahr 1992 aus den USA zurück in das ZDF-Sendezentrum nach Mainz kam, berichtete er von den dortigen Erfahrungen mit dem Internet und versuchte uns zu überzeugen, dass dieses Netz und die damit verbundenen Methoden die Informationswelt umkrempeln würden - er überzeugte uns, nicht aber bezüglich des Zeitrahmens. Wir unterlagen dem Irrtum, es werde noch einige Jahre dauern. Widergespiegelt findet sich der raketengleiche Aufschwung des Internets zum Beispiel in der ZDF-Agenturdatenbank: In den ersten 1990er-Jahren liegt nahezu kein Eintrag >Internet< vor, jedoch ab 1995 schoss die Zahl der Einträge rasant in die Höhe und erreichte mit der New-Economy-Euphorie im Jahr woo einen ersten Höhepunkt mit knapp 14.000 Nennungen. Das ZDF hat die publizistischen Möglichkeiten schnell erkannt und baute ab 1996 zügig eigene Online-Angebote auf - bereits zuvor nutzten die Journalisten und die Dokumentare das Internet für ihre Arbeit. Waren es zunächst nur einige wenige Neugierige, so sprach sich bald die Leistungsfähigkeit des Internets herum, auch wenn es zunächst noch mühsam in der Handhabung war. Wer sich dort zurecht fand, hatte einen Wissensvorsprung, konnte weltweit an jedem Platz Informationen einholen und aktueller arbeiten. Mit einer parallel ablaufenden Verjüngung des redaktionellen Mitarbeiterstabs in den Rundfunkhäusern verbreitete sich auch zunehmend das Wissen, wie erfolgreich im Internet recherchiert werden kann. Die jüngeren Journalisten kennen die Werkzeuge und interessante Websites bereits von der Universität, und heute benutzen alle recherchierenden Journalisten und Archivare im ZDF für die Vorbereitung der Berichterstattung und für die Themensuche in nahezu jedem Fall auch das Internet - und mit der Maus wird dabei meist für Google abgestimmt, während früher AltaVista, Lycos oder Yahoo! bevorzugt wurden. Wie in einer Studie nett formuliert wurde: »Without much exaggeration one could say that to exist is to be indexed by a search engine«.
  16. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.08
    0.078418195 = product of:
      0.18297578 = sum of:
        0.019851845 = weight(_text_:und in 2222) [ClassicSimilarity], result of:
          0.019851845 = score(doc=2222,freq=2.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.19590102 = fieldWeight in 2222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2222)
        0.15254912 = weight(_text_:techniken in 2222) [ClassicSimilarity], result of:
          0.15254912 = score(doc=2222,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5430516 = fieldWeight in 2222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=2222)
        0.010574817 = weight(_text_:in in 2222) [ClassicSimilarity], result of:
          0.010574817 = score(doc=2222,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 2222, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2222)
      0.42857143 = coord(3/7)
    
    Abstract
    Wissenschaftliche Bibliotheken werden heutzutage durch Universalsuchmaschinen wie Google bedroht. Ein Grund hierfür ist, dass Bibliotheken auf Rechercheinstrumente setzen die, die heutigen Erwartungen ihrer Nutzer nicht mehr erfüllen können. Wollen Bibliotheken auch zukünftig eine tragende Rolle spielen, müssen sie die Techniken in ihrer Produkte integrieren, die Suchmaschinen zu ihrem Erfolg im Web verholfen haben.
  17. cw: ¬Die Google-Falle (2008) 0.08
    0.07841067 = product of:
      0.13721867 = sum of:
        0.047480978 = weight(_text_:methoden in 2204) [ClassicSimilarity], result of:
          0.047480978 = score(doc=2204,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.20039418 = fieldWeight in 2204, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2204)
        0.03884132 = weight(_text_:und in 2204) [ClassicSimilarity], result of:
          0.03884132 = score(doc=2204,freq=40.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38329202 = fieldWeight in 2204, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2204)
        0.00981425 = weight(_text_:in in 2204) [ClassicSimilarity], result of:
          0.00981425 = score(doc=2204,freq=18.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15780272 = fieldWeight in 2204, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2204)
        0.041082133 = weight(_text_:den in 2204) [ClassicSimilarity], result of:
          0.041082133 = score(doc=2204,freq=16.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 2204, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2204)
      0.5714286 = coord(4/7)
    
    Abstract
    Kaum ein Internetnutzer kommt heutzutage ohne Google aus. Ob als Startseite eingerichtet, als Suchinstrument frequentiert, als Webmail-Account geführt, als Kalender genutzt oder zur Routenplanung verwendet. Kaum eine Online-Funktion wird vom Internetriesen nicht angeboten. Und während andere Monopolisten und Großfirmen oft nicht den besten Ruf in der Bevölkerung innehaben, ist es bei Google beinahe umgekehrt. Jeder scheint Google zu schätzen und findet das Unternehmen attraktiv, modern und transparent. Doch ist das alles nur Fassade?
    Content
    "Einer der ersten Journalisten, der sich kritisch mit Google auseinander gesetzt hat, ist Gerald Reischl. Er hinterfragte gängige Praktiken Googles, analysierte Fakten und wertete Stellungsnahmen aus, so dass er zum Schluss kam, dass Google "die unkontrollierte Weltmacht im Internet ist". Zu seinem Buch, "Die Google Falle", meint Reischl, "Das Buch soll zur Bewusstseinsbildung beitragen und aufzeigen, in welchem Zwiespalt Internet-Nutzer leben, welche Versäumnisse Europa gemacht hat und worauf wir achten sollten, wenn wir das Internet für unsere Zwecke nutzen." Datensammlung Worin liegt aber die Gefahr von Google? Alleine die Fakten, dass Google der eifrigste Datensammler der Welt ist und rund 2.000 Patente, unter anderem auf Methoden, wie User verfolgt, analysiert und kategorisiert werden können, besitzt, lassen schon Gefahrenherde erahnen. Das Einsammeln von Daten wird Google dabei leicht gemacht, wendet das Unternehmen doch den "Gratis Trick" an. Denn fast alle Google-Dienste sind kostenlos zu nutzen. Als Gegenzug beschafft sich Google Informationen. Schließlich gibt der Internetuser mit jeder Suchanfrage, jedem Mail oder jeder Routenplanung Informationen von sich preis, die Google helfen, den User zu analysieren und so die Werbeeinnahmen und Profite zu erhöhen. Auf der anderen Seite versteht Google dieses Sammeln von Informationen aber auch als Dienst an dem User. Insbesondere für den Suchalgorithmus kann es von Bedeutung sein, mehr über den Nutzer zu wissen, um ihn mit den besten Suchtreffern zu "entschädigen". Vor allem in Zeiten des semantischen Webs sollen auch die Suchergebnisse in Zukunft personalisiert werden. Ein diesbezügliches Patent ("Programmable Search Engine", kurz PSE) wurde bereits eingereicht.
    Aber auch die anderen Dienste sind fleißig am Analysieren. Zum Beispiel scannt Google Mail gesendete und empfangene Nachrichten, um anhand des Inhalts zielgerichtete Werbung zu schalten. Und mit iGoogle, der personalisierten Startseite, Google Calendar und Google Talk wird Pinselstrich für Pinselstrich ein aussagekräftigeres Bild vom User gemalt. Werbemogul Vor allem in den USA ist Google aber auch schon außerhalb des Internets sehr aktiv. Zum Beispiel stieg Google dort bereits in den Werbemarkt für Zeitungen, Radio und Fernsehen ein. Als Steigbügelhalter fungierte ein Patent, das unabhängig vom Medium zielgerichtete Werbung auf Basis von Inhalten serviert. Dabei tritt Google als Berater auf und empfiehlt Unternehmen, wie sie ihren Werbeetat auf die verschiedenen Medien aufteilen sollen. Zudem hat Google mit Google Print Ads schon namhafte Medien-Partner (unter anderem "The New York Times") gewonnen. Der Service bietet dem Kunden die Möglichkeit, online in einer Liste auszuwählen, in welcher Zeitung und in welcher Region er werben will und wie viel Geld er dafür bezahlen möchte. Als Komplettanbieter sorgt Google bei Bedarf sogar für die Gestaltung der Anzeige. Auch der Werbemarkt für Radio und TV - begünstigt durch neue IPTV-Technologien - wird für Google zunehmend interessanter. Ja, und nicht einmal vor Plakatwänden macht Google halt, denn auch diesbezüglich existiert eine Patentlösung."
  18. Zenker, T.; Kampermann, J.: Suchmaschinen und Intelligente Agenten in Internet und Intranet (1999) 0.08
    0.077948496 = product of:
      0.18187982 = sum of:
        0.10852795 = weight(_text_:methoden in 981) [ClassicSimilarity], result of:
          0.10852795 = score(doc=981,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.45804384 = fieldWeight in 981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=981)
        0.06277705 = weight(_text_:und in 981) [ClassicSimilarity], result of:
          0.06277705 = score(doc=981,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.6194934 = fieldWeight in 981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=981)
        0.010574817 = weight(_text_:in in 981) [ClassicSimilarity], result of:
          0.010574817 = score(doc=981,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=981)
      0.42857143 = coord(3/7)
    
    Abstract
    Anhand von Beispielen entwickeln die Autoren die Grundlagen von Suchmaschinen und Intelligenten Agenten und deren Anwendungen in der Praxis. Die Methoden, im Internet und Intranet Informationen zu suchen und aufzufinden, werden ausführlich dargestellt. Die Lösungen durch Suchmaschinen und durch die Agententechnik werden beschrieben. Die Autoren behandeln ferner die Anwendungsbereiche, die architektonischen Gestaltungsmöglichkeiten von Suchmaschinen und Intelligenten Agenten und ihre Wirkung im Internet und Intranet
  19. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.08
    0.07605867 = product of:
      0.17747024 = sum of:
        0.117484964 = weight(_text_:methoden in 1777) [ClassicSimilarity], result of:
          0.117484964 = score(doc=1777,freq=6.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.49584705 = fieldWeight in 1777, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
        0.039235655 = weight(_text_:und in 1777) [ClassicSimilarity], result of:
          0.039235655 = score(doc=1777,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3871834 = fieldWeight in 1777, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
        0.020749612 = weight(_text_:den in 1777) [ClassicSimilarity], result of:
          0.020749612 = score(doc=1777,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.42857143 = coord(3/7)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
    Footnote
    Diplomarbeit im Fach Inhaltliche Erschließung, Studiengang Informationsmanagement der FH Stuttgart - Hochschule für Bibliotheks- und Informationswesen
    Imprint
    Stuttgart : FH - Hochschule für Bibliotheks- und Informationswesen
  20. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.07
    0.07475372 = product of:
      0.130819 = sum of:
        0.034540746 = weight(_text_:und in 1165) [ClassicSimilarity], result of:
          0.034540746 = score(doc=1165,freq=62.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34085333 = fieldWeight in 1165, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
        0.0476716 = weight(_text_:techniken in 1165) [ClassicSimilarity], result of:
          0.0476716 = score(doc=1165,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.16970363 = fieldWeight in 1165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
        0.008425188 = weight(_text_:in in 1165) [ClassicSimilarity], result of:
          0.008425188 = score(doc=1165,freq=26.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.13546807 = fieldWeight in 1165, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
        0.04018145 = weight(_text_:den in 1165) [ClassicSimilarity], result of:
          0.04018145 = score(doc=1165,freq=30.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.30661747 = fieldWeight in 1165, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.5714286 = coord(4/7)
    
    Content
    "Google ist einfach zu bedienen, effektiv, bringt qualitativ hochwertige Suchergebnisse - und ist doch nicht der Weisheit letzter Schluss. Manchmal braucht man Alternativen, und mitunter sind die sogar weit besser als Google. Patentrezepte sind eine feine Sache, sie haben aber auch ihre Nachteile. Je stärker man sich auf sie stützt, desto eher läuft man Gefahr, alternative Ansätze zu verlernen oder zu vergessen. Dass es derzeit vielen Surfern so geht, könnten die Betreiber der meisten Suchmaschinen und Kataloge anhand ihrer Logstatistiken nachweisen: Google monopolisiert den Markt und nimmt den anderen die Butter vom Brot. Das ist nicht Googles Schuld. Der erst vier Jahre alte Suchdienst hat sich weltweit durchgesetzt, weil er nach wie vor die beste Suchtechnik bietet. Zurzeit gibt es wohl kaum eine einzelne Searchengine, die in ihrer Gesamtperformance, in Datenbankgröße und Güte der Ergebnisse mit Google wirklich mithalten könnte. So etwas spricht sich herum und hat dazu geführt, dass Google inzwischen den größten Batzen aller Suchanfragen im WWW abwickelt. Kleine wie große Konkurrenten drohen daran kaputtzugehen. Das wiederum wäre schade, denn es muss Alternativen geben: Google kann viel, aber er kann nicht alles.
    Google sucht "flach", weil "hochgestochenes" nicht populär ist Das Pageranking-System von Google, mit dem der Suchdienst Ergebnisse in eine "relevante" Reihenfolge bringt, begünstigt populäre Angebote. Fachleute suchen vielleicht gerade die bewusst nicht. Sie sind in aller Regel mit Suchen über Kataloge oder spezialisierte Suchdienste besser bedient. Da keine Suchmaschine es schafft, das WWW, geschweige denn das Internet vollständig abzudecken, gelingt es vielen Suchmaschinen immer wieder, in bestimmten Suchfeldern, Themenbereichen oder auch über regionale Ansätze und Schwerpunkte zu qualitativ hochwertigen Ergebnissen zu kommen, die auch Google ausstechen. Ganz besonders gilt dies für alle Dienste, die gezielt im so genannten "Deep Web" suchen: Gemeint sind damit vor allem Datenbankbestände. An die kommt Google in den seltensten Fällen heran, aber gerade hier sind zumindest im Kontext professioneller Recherchen die Perlen im Web verborgen - egal, ob man Ingenieur, Bibliothekar, Arzt, Möbelrestaurator oder Journalist ist. Patentrezepte gibt es hier nicht, weil alles Suchen im Web abhängig ist von den Interessen des Suchenden. Stets up to date über das Angebot auch an spezialisierten Suchdiensten ist aber die Website Searchenginewatch: Hier sind unter "Specialty Search Engines" entsprechende Links zu finden. Zumindest eines lässt sich pauschal und problemlos für alle Suchenden im Web konstatieren: Es kann nicht schaden, eine Alternative zu Google zu pflegen. Metasucher: Mit Masse zur Klasse Neben kraftvollen Suchmaschinen wie Altavista, Hotbot, Teoma, Wisenut, Inktomi oder AlltheWeb , die alle ihre Eigenheiten, Stärken und Schwächen besitzen (ausprobieren!), glänzen vor allem auch die Metasuchdienste. Das sind Websites, die über ein Suchformular parallel eine ganze Reihe von Quellen abfragen können und die Ergebnisse zusammenfassen. Metasearcher kommen und gehen und leben dabei - aus Perspektive der Surchengine-Anbieter - quasi parasitär auf Kosten der Suchmaschinen. Aus Nutzerperspektive haben sie allerdings einiges zu bieten, und die besten unter ihnen bringen tatsächlich eigene Leistungen ein, die die Qualität der bei anderen Suchdiensten gesammelten Ergebnisse steigert. Denn Metamaschinen "verbreitern" die Suche nicht nur, sie engen sie auch ein: Ein Beispiel wie Ithaki macht das sehr schön deutlich. Der Suchdienst fragt nur Kataloge für Kinderseiten ab - und wer weiß, wie dürftig die in aller Regel für sich genommen sind, wird für den breiteren, aber fest definierten Ansatz dankbar sein. Typisch: So was gibt es für den deutschsprachigen Raum natürlich wieder nicht.
    Viel abfragen, präzise einengen Ein guter, allgemeiner Metadienst ist auch Ixquick , der in seiner deutschen Version zwölf Searchengines parallel abfragt. Mit im Päckchen: Eine Reihe spezifisch deutscher Engines, ernsthafte Google-Konkurrenten wie AlltheWeb oder AskJeeves/Teoma bis hin zu Katalogen. Google dagegen fehlt, was die ganze Sache nicht nur zum echten Alternativprogramm macht, sondern auch zur sinnvollen Ergänzung: Tests deuten darauf hin, dass Google im Diffusen weit besser fischt, Ixquick bei sehr konkreten Aufgaben aber deutlich bessere Ergebnisse zeigt. Im Klartext: Bei Google ist die Chance größer, den Ex-Klassenkameraden wiederzufinden, bei Ixquick findet man dagegen seinen Fachaufsatz an der Uni Antwerpen. Das hat was, und es ist kein Zufall: Der niederländische Dienst Ixquick leistet es sich, die bei diversen Diensten gefundenen Resultate neu zu gewichten und zu ordnen. Ganz nebenbei killt er dabei auch noch sämtliche Doppler. Brauchbar ist dabei wiederum wirklich nur die Metasuche: Die anderen Suchoptionen (Bilder, News, MP3) bieten vergleichsweise wenig. Das gewöhnt den Surfer dann wieder daran, dass es oft besser ist, mehrere Quellen gegeneinander zu konsultieren. Weder die Bildsuche von Google, noch die von Altavista ist wirklich gut - in Kombination aber decken sie eine Menge ab.
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
    Footnote
    Zum Thema: Im Internet: · Searchenginewatch http://www.searchenginewatch.com · Searchenginewatch: Spezialsuchdienste http://www.searchenginewatch.com/links/specialty.html · Ixquick Metasuche http://www.ixquick.com/ · Pandia Metasearchdienst http://www.pandia.com · Ithaki: Metasuchdienst für Kinderthemen http://www.ithaki.net/kids/ · Metaspinner: Deutscher Metasuchdienst mit vielen speziellen Suchmöglichkeiten http://www.metaspinner.de · AlltheWeb: Googles Herausforderer http://www.alltheweb.com/ · AltaVista: Der ehemalige Marktführer hat mächtig aufgerüstet http://www.altavista.com/ · Inktomi: Suchdienstleister im Hintergrund http://www.inktomi.com/ · Wisenut: Viel versprechender Newcomer, der dringend ein Update gebrauchen könnte http://www.wisenut.com · Teoma sucht anders: Im Doppel mit AskJeeves ein Klasse-Angebot, bisher ohne die nötige Masse http://www.teoma.com · Hotbot: Einst intelligenteste Searchengine, bis heute guter Service http://www.hotbot.lycos.com · ...und natürlich der Dienst, an dem sich alle messen müssen: Google http://www.google.com/intl/de/

Years

Languages

Types

  • a 814
  • el 93
  • m 81
  • x 15
  • s 14
  • r 4
  • p 2
  • More… Less…

Subjects

Classifications