Search (163 results, page 1 of 9)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.24
    0.24272758 = product of:
      0.48545516 = sum of:
        0.20108213 = product of:
          0.40216425 = sum of:
            0.20108213 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.20108213 = score(doc=2514,freq=2.0), product of:
                0.35778588 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04220163 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
            0.20108213 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.20108213 = score(doc=2514,freq=2.0), product of:
                0.35778588 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04220163 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.5 = coord(2/4)
        0.28437304 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.28437304 = score(doc=2514,freq=4.0), product of:
            0.35778588 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04220163 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Milonas, E.: ¬An examination of facets within search engine result pages (2017) 0.13
    0.12840895 = product of:
      0.2568179 = sum of:
        0.17813556 = weight(_text_:elemente in 4160) [ClassicSimilarity], result of:
          0.17813556 = score(doc=4160,freq=2.0), product of:
            0.23812051 = queryWeight, product of:
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.04220163 = queryNorm
            0.74808997 = fieldWeight in 4160, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.09375 = fieldNorm(doc=4160)
        0.07868235 = product of:
          0.1573647 = sum of:
            0.1573647 = weight(_text_:struktur in 4160) [ClassicSimilarity], result of:
              0.1573647 = score(doc=4160,freq=2.0), product of:
                0.22380777 = queryWeight, product of:
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.04220163 = queryNorm
                0.7031244 = fieldWeight in 4160, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4160)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Theme
    Klassifikationstheorie: Elemente / Struktur
  3. Poulakos, I.: ¬"Die Leute suchen immer dasselbe" (2001) 0.05
    0.04707866 = product of:
      0.18831465 = sum of:
        0.18831465 = sum of:
          0.13113725 = weight(_text_:struktur in 5541) [ClassicSimilarity], result of:
            0.13113725 = score(doc=5541,freq=2.0), product of:
              0.22380777 = queryWeight, product of:
                5.3032966 = idf(docFreq=597, maxDocs=44218)
                0.04220163 = queryNorm
              0.585937 = fieldWeight in 5541, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.3032966 = idf(docFreq=597, maxDocs=44218)
                0.078125 = fieldNorm(doc=5541)
          0.057177387 = weight(_text_:22 in 5541) [ClassicSimilarity], result of:
            0.057177387 = score(doc=5541,freq=2.0), product of:
              0.14778292 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04220163 = queryNorm
              0.38690117 = fieldWeight in 5541, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5541)
      0.25 = coord(1/4)
    
    Abstract
    Etwa eine Milliarde Seiten zirkulieren im Internet - entschieden zu viel, um den Überblick zu behalten. virtuelle Kataloge wie Web.de sortieren das Chaos und stauchen das WWW auf Normalmass zurecht. Der Bedarf nach Ordnung und Struktur im Datennetz muss gewaltig sein: 100.000 neue Benutzer registrieren sich pro Woche bei Web.de
    Date
    18. 1.1997 12:15:22
  4. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.04
    0.04425875 = product of:
      0.0885175 = sum of:
        0.07422315 = weight(_text_:elemente in 867) [ClassicSimilarity], result of:
          0.07422315 = score(doc=867,freq=2.0), product of:
            0.23812051 = queryWeight, product of:
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.04220163 = queryNorm
            0.31170416 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.014294347 = product of:
          0.028588694 = sum of:
            0.028588694 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.028588694 = score(doc=867,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Pages
    22 S
  5. Neue Form der Bildersuche (2008) 0.03
    0.025978103 = product of:
      0.10391241 = sum of:
        0.10391241 = weight(_text_:elemente in 1932) [ClassicSimilarity], result of:
          0.10391241 = score(doc=1932,freq=2.0), product of:
            0.23812051 = queryWeight, product of:
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.04220163 = queryNorm
            0.4363858 = fieldWeight in 1932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1932)
      0.25 = coord(1/4)
    
    Content
    "Google forscht an einer neuen Version der Bildersuche. Zwei Wissenschaftler des Suchmaschinenbetreibers stellten auf der World-Wide-Web-Konferenz in Peking das neue Verfahren vor: Es kombiniert Bilderkennung und Googles Bewertungssystem "Page Rank". Das Rankingverfahren sorgt dafür, dass Google möglichst nur relevante Treffer anzeigt. Durch die geschickte Kombination beider Elemente hoffen die Forscher, jetzt deutlich bessere Bilder-Suchergebnisse zu erhalten. Die Wissenschaftler nutzen für ihr Projekt die 2.000 beliebtesten Google-Anfragen und verknüpfen diese Angaben mit der Bildersuche. Die Anzahl der unzutreffenden Bildfunde konnte durch dieses Verfahren um 83 Prozent gesenkt werden. INFO: www.google.de"
  6. Knitel, M.; Labner, J.; Oberhauser, O.: Sachliche Erschließung und die neue Suchmaschine des Österreichischen Bibliothekenverbundes (2010) 0.03
    0.025978103 = product of:
      0.10391241 = sum of:
        0.10391241 = weight(_text_:elemente in 4207) [ClassicSimilarity], result of:
          0.10391241 = score(doc=4207,freq=2.0), product of:
            0.23812051 = queryWeight, product of:
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.04220163 = queryNorm
            0.4363858 = fieldWeight in 4207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4207)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Einführung der neuen Suchmaschine Primo im Österreichischen Bibliothekenverbund wurde eine Neubewertung und Neuausrichtung der Anzeige, Indexierung und der erstmals möglichen Facettierung sacherschließender Elemente notwendig. Nach einem kurzen Überblick über die im Verbund zum Einsatz kommende Software sowie über Umfang und Art der inhaltlichen Erschließung im zentralen Katalog wird detailliert auf die angestrebte Umsetzung derselben in der neuen Suchmaschinenumgebung eingegangen, wobei der verbalen Erschließung durch RSWK-Ketten als wichtigste Form der intellektuellen Erschließung erhöhte Aufmerksamkeit zukommt. In einem zweiten Teil wird die konkrete technische Umsetzung in Primo beleuchtet, um abschließend einen Ausblick auf zukünftige Entwicklungen sowie projektierte Verbesserungen zu geben.
  7. Lewandowski, D.: Freiwillige Selbstkontrolle, Stärkung "alternativer Suchmaschinen" : Suchmaschinen und Politik (2005) 0.02
    0.016392156 = product of:
      0.065568626 = sum of:
        0.065568626 = product of:
          0.13113725 = sum of:
            0.13113725 = weight(_text_:struktur in 3374) [ClassicSimilarity], result of:
              0.13113725 = score(doc=3374,freq=2.0), product of:
                0.22380777 = queryWeight, product of:
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.04220163 = queryNorm
                0.585937 = fieldWeight in 3374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3374)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschinen sind in der Politik angekommen. Einerseits wurde eine Freiwillige Selbstkontrolle unter Beteiligung großerAnbietergegründet Andererseits beschäftigt sich die grüne Bundestagsfraktion mit der Frage, ob die bisher bestehende Suchmaschinen-Struktur die beste für den Nutzer sei.
  8. Wyss, V.; Keel, G.: Google als Trojanisches Pferd? : Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität (2007) 0.01
    0.013909206 = product of:
      0.055636823 = sum of:
        0.055636823 = product of:
          0.11127365 = sum of:
            0.11127365 = weight(_text_:struktur in 385) [ClassicSimilarity], result of:
              0.11127365 = score(doc=385,freq=4.0), product of:
                0.22380777 = queryWeight, product of:
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.04220163 = queryNorm
                0.49718404 = fieldWeight in 385, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=385)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Ohne Suchmaschinen bliebe das Internet ein ungeordneter Datenfriedhof mit all den bekannten Mängeln zufällig aufgehäufter Informationshalden, insbesondere ohne Relevanzstruktur. Auch für Journalisten wird das Internet erst durch Suchmaschinen zum brauchbaren Netz. Suchmaschinen haben eine wesentliche Bedeutung für die Recherchepraktiken und sie haben das Potenzial, die soziale Struktur des Journalismus wesentlich mitzuprägen oder gar zu verändern. Offensichtlich wird nämlich, dass der Suchmaschine nicht nur eine suchende, sondern auch eine ordnende Funktion zukommt - sie ist eben Selektionsmaschine. Die Selektionsleistung der technischen Gatekeeper löst aber nicht nur Probleme, weil beispielsweise das gezielte Suchen von Informationen rasch und kostengünstig erfolgen kann; Suchmaschinen schaffen auch neue Probleme, mit denen der Journalismus konfrontiert ist. Das vorliegende Kapitel diskutiert die Frage, inwiefern sich die Internetrecherche von Journalisten auf die journalistische Qualität auswirkt. Im Zentrum des vorliegenden Kapitels steht die theoretische Sichtweise auf den möglichen Einfluss der Anwendung von Suchmaschinen auf die soziale Praxis bzw. auf die Struktur des Journalismus, und damit auch auf die Produktion der journalistischen Qualität.
  9. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.01
    0.012129156 = product of:
      0.048516624 = sum of:
        0.048516624 = product of:
          0.09703325 = sum of:
            0.09703325 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.09703325 = score(doc=3227,freq=4.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  10. Höfer, W.: Detektive im Web (1999) 0.01
    0.012129156 = product of:
      0.048516624 = sum of:
        0.048516624 = product of:
          0.09703325 = sum of:
            0.09703325 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.09703325 = score(doc=4007,freq=4.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 8.1999 20:22:06
  11. Rensman, J.: Blick ins Getriebe (1999) 0.01
    0.012129156 = product of:
      0.048516624 = sum of:
        0.048516624 = product of:
          0.09703325 = sum of:
            0.09703325 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.09703325 = score(doc=4009,freq=4.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 8.1999 21:22:59
  12. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.01
    0.011591006 = product of:
      0.046364024 = sum of:
        0.046364024 = product of:
          0.09272805 = sum of:
            0.09272805 = weight(_text_:struktur in 868) [ClassicSimilarity], result of:
              0.09272805 = score(doc=868,freq=4.0), product of:
                0.22380777 = queryWeight, product of:
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.04220163 = queryNorm
                0.41432005 = fieldWeight in 868, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.3032966 = idf(docFreq=597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=868)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
  13. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.01
    0.011435477 = product of:
      0.04574191 = sum of:
        0.04574191 = product of:
          0.09148382 = sum of:
            0.09148382 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.09148382 = score(doc=4686,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    27.11.2005 18:04:22
  14. Talbot, D.: Durchblick im Infodschungel (2009) 0.01
    0.011133472 = product of:
      0.04453389 = sum of:
        0.04453389 = weight(_text_:elemente in 2865) [ClassicSimilarity], result of:
          0.04453389 = score(doc=2865,freq=2.0), product of:
            0.23812051 = queryWeight, product of:
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.04220163 = queryNorm
            0.18702249 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.642448 = idf(docFreq=425, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.25 = coord(1/4)
    
    Content
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  15. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.01
    0.010107629 = product of:
      0.040430516 = sum of:
        0.040430516 = product of:
          0.08086103 = sum of:
            0.08086103 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
              0.08086103 = score(doc=4872,freq=4.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.54716086 = fieldWeight in 4872, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2002 19:40:22
  16. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.01
    0.010006042 = product of:
      0.04002417 = sum of:
        0.04002417 = product of:
          0.08004834 = sum of:
            0.08004834 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.08004834 = score(doc=3175,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  17. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.01
    0.010006042 = product of:
      0.04002417 = sum of:
        0.04002417 = product of:
          0.08004834 = sum of:
            0.08004834 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.08004834 = score(doc=3445,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    25. 8.2005 17:42:22
  18. ap: Suchmaschinen in neuem Gewand : Metaspinner kennt 600 Millionen Seiten (1999) 0.01
    0.010006042 = product of:
      0.04002417 = sum of:
        0.04002417 = product of:
          0.08004834 = sum of:
            0.08004834 = weight(_text_:22 in 4224) [ClassicSimilarity], result of:
              0.08004834 = score(doc=4224,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.5416616 = fieldWeight in 4224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4224)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    3. 5.1997 8:44:22
  19. Dunning, A.: Do we still need search engines? (1999) 0.01
    0.010006042 = product of:
      0.04002417 = sum of:
        0.04002417 = product of:
          0.08004834 = sum of:
            0.08004834 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.08004834 = score(doc=6021,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Ariadne. 1999, no.22
  20. Bawden, D.: Google and the universe of knowledge (2008) 0.01
    0.010006042 = product of:
      0.04002417 = sum of:
        0.04002417 = product of:
          0.08004834 = sum of:
            0.08004834 = weight(_text_:22 in 844) [ClassicSimilarity], result of:
              0.08004834 = score(doc=844,freq=2.0), product of:
                0.14778292 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04220163 = queryNorm
                0.5416616 = fieldWeight in 844, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=844)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    7. 6.2008 16:22:20

Languages

  • d 96
  • e 66
  • f 1
  • nl 1
  • More… Less…

Types

  • a 143
  • el 10
  • m 7
  • x 5
  • p 2
  • r 1
  • More… Less…

Classifications