Search (107 results, page 1 of 6)

  • × theme_ss:"Suchmaschinen"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Bilal, D.: Children's use of the Yahooligans! Web search engine : III. Cognitive and physical behaviors on fully self-generated search tasks (2002) 0.03
    0.032291643 = product of:
      0.09687492 = sum of:
        0.05764047 = weight(_text_:problem in 5228) [ClassicSimilarity], result of:
          0.05764047 = score(doc=5228,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.28137225 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.046875 = fieldNorm(doc=5228)
        0.03923445 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
          0.03923445 = score(doc=5228,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.23214069 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=5228)
      0.33333334 = coord(2/6)
    
    Abstract
    Bilal, in this third part of her Yahooligans! study looks at children's performance with self-generated search tasks, as compared to previously assigned search tasks looking for differences in success, cognitive behavior, physical behavior, and task preference. Lotus ScreenCam was used to record interactions and post search interviews to record impressions. The subjects, the same 22 seventh grade children in the previous studies, generated topics of interest that were mediated with the researcher into more specific topics where necessary. Fifteen usable sessions form the basis of the study. Eleven children were successful in finding information, a rate of 73% compared to 69% in assigned research questions, and 50% in assigned fact-finding questions. Eighty-seven percent began using one or two keyword searches. Spelling was a problem. Successful children made fewer keyword searches and the number of search moves averaged 5.5 as compared to 2.4 on the research oriented task and 3.49 on the factual. Backtracking and looping were common. The self-generated task was preferred by 47% of the subjects.
  2. Loia, V.; Pedrycz, W.; Senatore, S.; Sessa, M.I.: Web navigation support by means of proximity-driven assistant agents (2006) 0.03
    0.0269097 = product of:
      0.0807291 = sum of:
        0.04803372 = weight(_text_:problem in 5283) [ClassicSimilarity], result of:
          0.04803372 = score(doc=5283,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.23447686 = fieldWeight in 5283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5283)
        0.032695375 = weight(_text_:22 in 5283) [ClassicSimilarity], result of:
          0.032695375 = score(doc=5283,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.19345059 = fieldWeight in 5283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5283)
      0.33333334 = coord(2/6)
    
    Abstract
    The explosive growth of the Web and the consequent exigency of the Web personalization domain have gained a key position in the direction of customization of the Web information to the needs of specific users, taking advantage of the knowledge acquired from the analysis of the user's navigational behavior (usage data) in correlation with other information collected in the Web context, namely, structure, content, and user profile data. This work presents an agent-based framework designed to help a user in achieving personalized navigation, by recommending related documents according to the user's responses in similar-pages searching mode. Our agent-based approach is grounded in the integration of different techniques and methodologies into a unique platform featuring user profiling, fuzzy multisets, proximity-oriented fuzzy clustering, and knowledge-based discovery technologies. Each of these methodologies serves to solve one facet of the general problem (discovering documents relevant to the user by searching the Web) and is treated by specialized agents that ultimately achieve the final functionality through cooperation and task distribution.
    Date
    22. 7.2006 16:59:13
  3. Herrera-Viedma, E.; Pasi, G.: Soft approaches to information retrieval and information access on the Web : an introduction to the special topic section (2006) 0.02
    0.021527758 = product of:
      0.06458327 = sum of:
        0.038426977 = weight(_text_:problem in 5285) [ClassicSimilarity], result of:
          0.038426977 = score(doc=5285,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.1875815 = fieldWeight in 5285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.03125 = fieldNorm(doc=5285)
        0.026156299 = weight(_text_:22 in 5285) [ClassicSimilarity], result of:
          0.026156299 = score(doc=5285,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.15476047 = fieldWeight in 5285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=5285)
      0.33333334 = coord(2/6)
    
    Abstract
    The World Wide Web is a popular and interactive medium used to collect, disseminate, and access an increasingly huge amount of information, which constitutes the mainstay of the so-called information and knowledge society. Because of its spectacular growth, related to both Web resources (pages, sites, and services) and number of users, the Web is nowadays the main information repository and provides some automatic systems for locating, accessing, and retrieving information. However, an open and crucial question remains: how to provide fast and effective retrieval of the information relevant to specific users' needs. This is a very hard and complex task, since it is pervaded with subjectivity, vagueness, and uncertainty. The expression soft computing refers to techniques and methodologies that work synergistically with the aim of providing flexible information processing tolerant of imprecision, vagueness, partial truth, and approximation. So, soft computing represents a good candidate to design effective systems for information access and retrieval on the Web. One of the most representative tools of soft computing is fuzzy set theory. This special topic section collects research articles witnessing some recent advances in improving the processes of information access and retrieval on the Web by using soft computing tools, and in particular, by using fuzzy sets and/or integrating them with other soft computing tools. In this introductory article, we first review the problem of Web retrieval and the concept of soft computing technology. We then briefly introduce the articles in this section and conclude by highlighting some future research directions that could benefit from the use of soft computing technologies.
    Date
    22. 7.2006 16:59:33
  4. Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005) 0.02
    0.016770888 = product of:
      0.05031266 = sum of:
        0.033964973 = weight(_text_:problem in 3221) [ClassicSimilarity], result of:
          0.033964973 = score(doc=3221,freq=4.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.16580018 = fieldWeight in 3221, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.016347688 = weight(_text_:22 in 3221) [ClassicSimilarity], result of:
          0.016347688 = score(doc=3221,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.09672529 = fieldWeight in 3221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
      0.33333334 = coord(2/6)
    
    Content
    Bei der Suche +Dell +Notebook -Pentium konnte Beta-MSN glänzen: Acht von zehn Treffern lieferten Informationen zu Dell-Notebooks ohne Pentium-Prozessor. Bei Google waren es nur sieben. Dann prüften wir weitere Operatoren. Die Anführungszeichen für einen genauen Ausdruck beherrschten alle Roboter fehlerfrei. Boolesche Operatoren wiederum können nur Beta-MSN, Yahoo und Web.de. Diese Suchhilfen werden zwar selten verwendet, liefern aber präzise Ergebnisse zu komplexen Fragestellungen -wenn die Suchmaschine die Syntax fehlerfrei beherrscht. Hier scheint BetaMSN noch zu schwächeln, den es kam zu drei Fehlern. Die nächsten Suchabfragen zielten auf Spam und Dialer: "last minute" "La Palma" und "bauanleitung vogelhäuschen" Es zeigte sich, dass alle Roboter mit Spam zu kämpfen haben, Beta-MSN vorneweg. Bauanleitungen stecken besonders gerne hinter Dialern, und so waren die ersten drei Google-Treffer kostenpflichtig (z.B. 29 Euro). Immerhin förderte Google fünf richtige Seiten hervor. Beta-MSN fand nur vier Seiten - alle unbrauchbar. Mit den letzten drei Fragen testeten wir die Aktualität der Ergebnisse. Als schwierige Testfrage stellte sich Schröder China heraus. Der erste Google-Treffer berichtet gleich von der Schröder-Reise - aber von der aus dem Jahr 2003. Denn der Kanzler reist traditionell jedes Jahr im Dezember nach China. Immerhin finden wir bei Google fünf Seiten zur aktuellen Chinafahrt, ebenso bei BetaMSN, je zwei bei Yahoo und Alt-MSN sowie drei bei Web.de. Bei der Eingabe merkel "cdu-parteitag" konnte Google nun wieder glänzen und warf zehn Treffer zum Dezember-Treffen in Düsseldorf aus. Beta-MSN kam nur auf vier. Vier weitere Seiten berichten von gar keinem Parteitag. Bei Beta-MSN tritt auffällig häufig das Problem auf (nicht nur bei dieser Suche), dass der Roboter Übersichtsseiten von Nachrichten indiziert. Zum Beispiel erschien häufiger www. spiegel.de/politik/deutschland. Doch diese Seite ändert sich stündlich. Wenn dort heute auf einen Artikel über den Parteitag hingewiesen wird, ist er morgen verschwunden. Beta-MSN müsste vielmehr die Artikel selbst in die Datenbank nehmen - so wie Google. Das angesprochene Problem ändert sich auch dann nicht, wenn der Anwender den Aktualitätsschieber hoch stellt. Denn Beta-MSN bietet die einzigartige Möglichkeit, in die Relevanz der Suche eingreifen zu können. Im Suchassistenten gibt der Anwender vor, ob ihm Aktualität, Popularität oder Präzision wichtig ist. Geholfen hat es in diesem Fall nicht. Inzwischen hat MSN ein Such-Tool für den Desktop vorgestellt. Auch hier ist Google ein Vorbild. Fazit Bislang kann sich die Beta noch nicht von anderen Suchmaschinen abheben. Sie liegt in puncto Relevanz, Präzision und Aktualität im Mittelfeld (siehe Tabelle), was an sich kein schlechter Start ist. Meist sind ihre Ergebnisse besser als die von Alt-MSN, aber noch weit von denen von Google entfernt. Links auf Seiten, die es nicht mehr gibt (Fehler 404), traten bei Beta-MSN gar nicht auf. Das spricht dafür, dass der Roboter den Index oft erneuert. Ein endgültiges Urteil schließt sich an dieser Stelle aus, denn es handelt sich um eine BetaVersion. Deswegen auch kein Test und keine Noten."
    Date
    22. 1.2005 17:11:04
  5. Metzger, C.: Gratis-Bildmaterial aus dem Web (2005) 0.02
    0.016145822 = product of:
      0.04843746 = sum of:
        0.028820235 = weight(_text_:problem in 3412) [ClassicSimilarity], result of:
          0.028820235 = score(doc=3412,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.14068612 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3412)
        0.019617224 = weight(_text_:22 in 3412) [ClassicSimilarity], result of:
          0.019617224 = score(doc=3412,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.116070345 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3412)
      0.33333334 = coord(2/6)
    
    Content
    Lizenzfreie Bilder mit einer Suchmaschine aufstöbern Im Internet gibt es fast auf jeder Website Bilder, die Sie im Browser auf Ihrer Festplatte speichern und in anderen Anwendungen weiterverarbeiten können. Entsprechend riesig ist das Gesamtangebot an Fotos, Grafiken und Clipart-Elementen. Allerdings dürfen Sie Grafikelemente, die in eine Website eingebaut sind, nur dann für eigene Zwecke einsetzen, wenn der Urheber das ausdrücklich gestattet. Diese Erlaubnis ist normalerweise mit einem Begriff wie "rechtefrei", "lizenzfrei", "zur freien Nutzung" oder -englischsprachig - "royalty-free" gekennzeichnet. Das Problem: Auf den meisten Websites finden Sie keine Urheberrechtshinweise zu den eingebetteten Bildern. Am einfachsten ist die Suche nach lizenzfreien Web-Bildern mit einer für Grafiken und Fotos optimierten Suchmaschine wie Google (www.google.de), Fotos.de (www. fotos.de) oder Picsearch (www.picsearch. com). Für die Foto-Indizierung verwenden Suchmaschinen normalerweise den Text auf der Web-Seite, auf der sich auch das betreffende Bild befindet. Dabei werden doppelte Fundstellen automatisch aussortiert und Bilder mit der höchsten Qualität an den Anfang der Ergebnisliste gestellt. In Google sind laut Betreiber derzeit 880 Millionen Grafiken registriert. Zum Bildersuchdienst gelangen Sie auf der Google-Startseite per Klick auf die Registerkarte "Bilder". Geben Sie einen oder mehrere Suchbegriffe - durch Leerzeichen getrennt - in das Suchfeld ein, und klicken Sie auf den Button "Google Suche". Die Fundstellenanzeige erfolgt in Form von Miniaturvorschaubildern. Ein Klick auf das gewünschte Motiv öffnet die Website mit dem Foto. Um eine Grafik auf Ihrer Festplatte abzuspeichern, klicken Sie mit der rechten Maustaste darauf und wählen anschlie ßend im Kontextmenü den Befehl "Bild speichern unter". Lizenzfreie Bilder oder ganze Online-Fotogalerien stöbern Sie auch ohne spezielle Bildersuchfunktion mit einer Standardrecherche in einer Suchmaschine wie Alltheweb (www.alltheweb.com) auf. Geben Sie dazu einen Begriff wie "Foto", "Bilder" oder "Picture" in Kombination mit "lizenzfrei" oder "royalty-free" in das Suchfeld der verwendeten Suchmaschine ein.
    Date
    22. 5.2005 10:06:58
  6. Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005) 0.02
    0.016145822 = product of:
      0.04843746 = sum of:
        0.028820235 = weight(_text_:problem in 5177) [ClassicSimilarity], result of:
          0.028820235 = score(doc=5177,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.14068612 = fieldWeight in 5177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5177)
        0.019617224 = weight(_text_:22 in 5177) [ClassicSimilarity], result of:
          0.019617224 = score(doc=5177,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.116070345 = fieldWeight in 5177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5177)
      0.33333334 = coord(2/6)
    
    Content
    Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
    Date
    3. 5.1997 8:44:22
  7. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.02
    0.015412747 = product of:
      0.09247648 = sum of:
        0.09247648 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
          0.09247648 = score(doc=4872,freq=4.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.54716086 = fieldWeight in 4872, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=4872)
      0.16666667 = coord(1/6)
    
    Date
    22. 6.2002 19:40:22
  8. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.02
    0.015257841 = product of:
      0.09154704 = sum of:
        0.09154704 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
          0.09154704 = score(doc=3445,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.5416616 = fieldWeight in 3445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=3445)
      0.16666667 = coord(1/6)
    
    Date
    25. 8.2005 17:42:22
  9. Bawden, D.: Google and the universe of knowledge (2008) 0.02
    0.015257841 = product of:
      0.09154704 = sum of:
        0.09154704 = weight(_text_:22 in 844) [ClassicSimilarity], result of:
          0.09154704 = score(doc=844,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.5416616 = fieldWeight in 844, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=844)
      0.16666667 = coord(1/6)
    
    Date
    7. 6.2008 16:22:20
  10. Granum, G.; Barker, P.: ¬An EASIER way to search online engineering resource (2000) 0.01
    0.0128089925 = product of:
      0.07685395 = sum of:
        0.07685395 = weight(_text_:problem in 4876) [ClassicSimilarity], result of:
          0.07685395 = score(doc=4876,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.375163 = fieldWeight in 4876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.0625 = fieldNorm(doc=4876)
      0.16666667 = coord(1/6)
    
    Abstract
    EEVL consists of several distinct resources, which exist as separate databases. This article describes the approach taken to tackle a particular problem that was identified through evaluation studies, namely, that searches of the EEVL catalogue too frequently matched nor records. The solution described in this paper is a cross-search facility for 3 of the EEVL databases
  11. Stalder, F.; Mayer, C.: ¬Der zweite Index : Suchmaschinen, Personalisierung und Überwachung (2009) 0.01
    0.011321658 = product of:
      0.067929946 = sum of:
        0.067929946 = weight(_text_:problem in 22) [ClassicSimilarity], result of:
          0.067929946 = score(doc=22,freq=4.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.33160037 = fieldWeight in 22, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.0390625 = fieldNorm(doc=22)
      0.16666667 = coord(1/6)
    
    Abstract
    Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten. Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen. Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.
  12. Hock, R.: Search engines (2009) 0.01
    0.011207869 = product of:
      0.06724721 = sum of:
        0.06724721 = weight(_text_:problem in 3876) [ClassicSimilarity], result of:
          0.06724721 = score(doc=3876,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.3282676 = fieldWeight in 3876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3876)
      0.16666667 = coord(1/6)
    
    Abstract
    This entry provides an overview of Web search engines, looking at the definition, components, leading engines, searching capabilities, and types of engines. It examines the components that make up a search engine and briefly discusses the process involved in identifying content for the engines' databases and the indexing of that content. Typical search options are reviewed and the major Web search engines are identified and described. Also identified and described are various specialty search engines, such as those for special content such as video and images, and engines that take significantly different approaches to the search problem, such as visualization engines and metasearch engines.
  13. Price, A.: Five new Danish subject gateways under development (2000) 0.01
    0.010898459 = product of:
      0.06539075 = sum of:
        0.06539075 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
          0.06539075 = score(doc=4878,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.38690117 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
      0.16666667 = coord(1/6)
    
    Date
    22. 6.2002 19:41:31
  14. Eggeling, T.; Kroschel, A.: Alles finden im Web (2000) 0.01
    0.010898459 = product of:
      0.06539075 = sum of:
        0.06539075 = weight(_text_:22 in 4884) [ClassicSimilarity], result of:
          0.06539075 = score(doc=4884,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.38690117 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=4884)
      0.16666667 = coord(1/6)
    
    Date
    9. 7.2000 14:06:22
  15. Poulakos, I.: ¬"Die Leute suchen immer dasselbe" (2001) 0.01
    0.010898459 = product of:
      0.06539075 = sum of:
        0.06539075 = weight(_text_:22 in 5541) [ClassicSimilarity], result of:
          0.06539075 = score(doc=5541,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.38690117 = fieldWeight in 5541, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=5541)
      0.16666667 = coord(1/6)
    
    Date
    18. 1.1997 12:15:22
  16. Sauer, D.: Alles schneller finden (2001) 0.01
    0.010898459 = product of:
      0.06539075 = sum of:
        0.06539075 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
          0.06539075 = score(doc=6835,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.38690117 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=6835)
      0.16666667 = coord(1/6)
    
    Date
    11.11.2001 17:25:22
  17. Breyer, K.: Kommerz statt Information (2002) 0.01
    0.010898459 = product of:
      0.06539075 = sum of:
        0.06539075 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
          0.06539075 = score(doc=568,freq=2.0), product of:
            0.1690115 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04826377 = queryNorm
            0.38690117 = fieldWeight in 568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=568)
      0.16666667 = coord(1/6)
    
    Date
    9. 5.2002 21:21:22
  18. Ding, Y.; Chowdhury, G.; Foo, S.: Organsising keywords in a Web search environment : a methodology based on co-word analysis (2000) 0.01
    0.009606745 = product of:
      0.05764047 = sum of:
        0.05764047 = weight(_text_:problem in 105) [ClassicSimilarity], result of:
          0.05764047 = score(doc=105,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.28137225 = fieldWeight in 105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.046875 = fieldNorm(doc=105)
      0.16666667 = coord(1/6)
    
    Abstract
    The rapid development of the Internet and World Wide Web has caused some critical problem for information retrieval. Researchers have made several attempts to solve these problems. Thesauri and subject heading lists as traditional information retrieval tools have been criticised for their efficiency to tackle these newly emerging problems. This paper proposes an information retrieval tool generated by cocitation analysis, comprising keyword clusters with relationships based on the co-occurrences of keywords in the literature. Such a tool can play the role of an associative thesaurus that can provide information about the keywords in a domain that might be useful for information searching and query expansion
  19. Gorbunov, A.L.: Relevance of Web documents : ghosts consensus method (2002) 0.01
    0.009606745 = product of:
      0.05764047 = sum of:
        0.05764047 = weight(_text_:problem in 1005) [ClassicSimilarity], result of:
          0.05764047 = score(doc=1005,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.28137225 = fieldWeight in 1005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.046875 = fieldNorm(doc=1005)
      0.16666667 = coord(1/6)
    
    Abstract
    The dominant method currently used to improve the quality of Internet search systems is often called "digital democracy." Such an approach implies the utilization of the majority opinion of Internet users to determine the most relevant documents: for example, citation index usage for sorting of search results (google.com) or an enrichment of a query with terms that are asked frequently in relation with the query's theme. "Digital democracy" is an effective instrument in many cases, but it has an unavoidable shortcoming, which is a matter of principle: the average intellectual and cultural level of Internet users is very low- everyone knows what kind of information is dominant in Internet query statistics. Therefore, when one searches the Internet by means of "digital democracy" systems, one gets answers that reflect an underlying assumption that the user's mind potential is very low, and that his cultural interests are not demanding. Thus, it is more correct to use the term "digital ochlocracy" to refer to Internet search systems with "digital democracy." Based an the well-known mathematical mechanism of linear programming, we propose a method to solve the indicated problem.
  20. Röll, M.: »Am Anfang war das Wort« : Weblogs, Google & Geschäftsbeziehungen (2005) 0.01
    0.009606745 = product of:
      0.05764047 = sum of:
        0.05764047 = weight(_text_:problem in 3494) [ClassicSimilarity], result of:
          0.05764047 = score(doc=3494,freq=2.0), product of:
            0.20485485 = queryWeight, product of:
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.04826377 = queryNorm
            0.28137225 = fieldWeight in 3494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.244485 = idf(docFreq=1723, maxDocs=44218)
              0.046875 = fieldNorm(doc=3494)
      0.16666667 = coord(1/6)
    
    Abstract
    Wer früher etwas im Web finden wollte, hatte es schwer: Zwar gab es Massen von Material, aber etwas Konkretes zu finden, war aufwändig. Und hatte man endlich etwas gefunden, war es oft von mangelhafter Qualität. Suchen im Web war in der Frühzeit vor allem Wühlen: Sehr viele Seiten anfassen, anschauen und verwerfen, in der Hoffnung irgendwann einmal etwas Nützliches zu finden. Suchmaschinen ändern das: Sie erfassen große Teile des Webs und versorgen den Suchenden mit unendlich viel Material - worin dann auch genau das Problem lag: Aus dem Wühlen wurde Suchen, weiter Suchen und nochmals Suchen. Filtern wurde erforderlich, um aus der riesigen Materialmenge die relevanten Teile auszusortieren. Dann kam Google und brachte das, wonach sich alle sehnten: relevante Suchergebnisse. Internet-Nutzer konnten nun finden, mussten nicht mehr wühlen, sondern nur noch googeln. Aber sind ihre Probleme damit gelöst?

Languages

  • d 71
  • e 36