Search (15 results, page 1 of 1)

  • × theme_ss:"Suchmaschinen"
  • × type_ss:"x"
  1. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.04
    0.037265018 = product of:
      0.11179505 = sum of:
        0.107140824 = weight(_text_:suchmaschinen in 867) [ClassicSimilarity], result of:
          0.107140824 = score(doc=867,freq=16.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.6980896 = fieldWeight in 867, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.0046542287 = product of:
          0.023271143 = sum of:
            0.023271143 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.023271143 = score(doc=867,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
    Theme
    Suchmaschinen
  2. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.03
    0.031075675 = product of:
      0.09322702 = sum of:
        0.08571266 = weight(_text_:suchmaschinen in 2222) [ClassicSimilarity], result of:
          0.08571266 = score(doc=2222,freq=4.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.5584717 = fieldWeight in 2222, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0625 = fieldNorm(doc=2222)
        0.007514362 = product of:
          0.03757181 = sum of:
            0.03757181 = weight(_text_:29 in 2222) [ClassicSimilarity], result of:
              0.03757181 = score(doc=2222,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.31092256 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftliche Bibliotheken werden heutzutage durch Universalsuchmaschinen wie Google bedroht. Ein Grund hierfür ist, dass Bibliotheken auf Rechercheinstrumente setzen die, die heutigen Erwartungen ihrer Nutzer nicht mehr erfüllen können. Wollen Bibliotheken auch zukünftig eine tragende Rolle spielen, müssen sie die Techniken in ihrer Produkte integrieren, die Suchmaschinen zu ihrem Erfolg im Web verholfen haben.
    Date
    18.10.2015 10:29:56
    Theme
    Suchmaschinen
  3. Gerber, A.: Vergleich von Suchmaschinen und Katalogen : Schwerpunkt deutschsprachiger Suchmaschinen Stand 2002 (2002) 0.03
    0.030618042 = product of:
      0.18370825 = sum of:
        0.18370825 = weight(_text_:suchmaschinen in 4005) [ClassicSimilarity], result of:
          0.18370825 = score(doc=4005,freq=6.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            1.1969744 = fieldWeight in 4005, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.109375 = fieldNorm(doc=4005)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  4. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.02
    0.02342144 = product of:
      0.07026432 = sum of:
        0.06561009 = weight(_text_:suchmaschinen in 4333) [ClassicSimilarity], result of:
          0.06561009 = score(doc=4333,freq=6.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.42749083 = fieldWeight in 4333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0046542287 = product of:
          0.023271143 = sum of:
            0.023271143 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.023271143 = score(doc=4333,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S
    Theme
    Suchmaschinen
  5. Amon, H.: Optimierung von Webseiten für Suchmaschinen und Kataloge : Empfehlungen zur Optimierung der Web-Seiten der Bibliothek und Dokumentation der Deutschen Gesellschaft für Auswärtige Politik (DGAP) (2004) 0.02
    0.021428166 = product of:
      0.12856899 = sum of:
        0.12856899 = weight(_text_:suchmaschinen in 4626) [ClassicSimilarity], result of:
          0.12856899 = score(doc=4626,freq=4.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.8377075 = fieldWeight in 4626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.09375 = fieldNorm(doc=4626)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  6. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.02
    0.018557334 = product of:
      0.111344 = sum of:
        0.111344 = weight(_text_:suchmaschinen in 2482) [ClassicSimilarity], result of:
          0.111344 = score(doc=2482,freq=12.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.72547597 = fieldWeight in 2482, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
    Theme
    Suchmaschinen
  7. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.02
    0.017677333 = product of:
      0.106064 = sum of:
        0.106064 = weight(_text_:suchmaschinen in 3700) [ClassicSimilarity], result of:
          0.106064 = score(doc=3700,freq=8.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.6910734 = fieldWeight in 3700, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
      0.16666667 = coord(1/6)
    
    Abstract
    Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
    Theme
    Suchmaschinen
  8. Stölzel, A.: Was Google nicht sieht : Das "Invisible Web" (2004) 0.02
    0.017677333 = product of:
      0.106064 = sum of:
        0.106064 = weight(_text_:suchmaschinen in 4040) [ClassicSimilarity], result of:
          0.106064 = score(doc=4040,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.6910734 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.109375 = fieldNorm(doc=4040)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  9. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.012371557 = product of:
      0.07422934 = sum of:
        0.07422934 = weight(_text_:suchmaschinen in 5938) [ClassicSimilarity], result of:
          0.07422934 = score(doc=5938,freq=12.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.48365065 = fieldWeight in 5938, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.16666667 = coord(1/6)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
    Content
    [Magisterarbeit] - Rez. in: Online Mitteilungen 2001, Nr.69, S.41-43 (K. Patzwaldt) (Vgl. auch: http://www.ideenreich.com/suchmaschinen/kritik.shtml)
    Theme
    Suchmaschinen
  10. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.01
    0.008928402 = product of:
      0.053570412 = sum of:
        0.053570412 = weight(_text_:suchmaschinen in 868) [ClassicSimilarity], result of:
          0.053570412 = score(doc=868,freq=4.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3490448 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.16666667 = coord(1/6)
    
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
    Theme
    Suchmaschinen
  11. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.01
    0.008748012 = product of:
      0.05248807 = sum of:
        0.05248807 = weight(_text_:suchmaschinen in 866) [ClassicSimilarity], result of:
          0.05248807 = score(doc=866,freq=6.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.34199268 = fieldWeight in 866, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanKorves.pdf
    Theme
    Suchmaschinen
  12. Leyh, M.: ¬Das Google File System (2005) 0.01
    0.0071427217 = product of:
      0.04285633 = sum of:
        0.04285633 = weight(_text_:suchmaschinen in 863) [ClassicSimilarity], result of:
          0.04285633 = score(doc=863,freq=4.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.27923584 = fieldWeight in 863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
      0.16666667 = coord(1/6)
    
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/MichaelLeyh.pdf
    Theme
    Suchmaschinen
  13. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.0063133333 = product of:
      0.03788 = sum of:
        0.03788 = weight(_text_:suchmaschinen in 1777) [ClassicSimilarity], result of:
          0.03788 = score(doc=1777,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.24681194 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  14. Li, Z.: ¬A domain specific search engine with explicit document relations (2013) 0.01
    0.0063133333 = product of:
      0.03788 = sum of:
        0.03788 = weight(_text_:suchmaschinen in 1210) [ClassicSimilarity], result of:
          0.03788 = score(doc=1210,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.24681194 = fieldWeight in 1210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1210)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  15. Haveliwala, T.: Context-Sensitive Web search (2005) 0.01
    0.0050506666 = product of:
      0.030304 = sum of:
        0.030304 = weight(_text_:suchmaschinen in 2567) [ClassicSimilarity], result of:
          0.030304 = score(doc=2567,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.19744955 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=2567)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen