Search (17 results, page 1 of 1)

  • × theme_ss:"Retrievalalgorithmen"
  • × theme_ss:"Suchmaschinen"
  1. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.01
    0.008876784 = product of:
      0.047342844 = sum of:
        0.020738203 = weight(_text_:internet in 3) [ClassicSimilarity], result of:
          0.020738203 = score(doc=3,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.2609436 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.016790302 = weight(_text_:der in 3) [ClassicSimilarity], result of:
          0.016790302 = score(doc=3,freq=4.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.27922085 = fieldWeight in 3, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.009814339 = product of:
          0.029443016 = sum of:
            0.029443016 = weight(_text_:29 in 3) [ClassicSimilarity], result of:
              0.029443016 = score(doc=3,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.31092256 = fieldWeight in 3, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
    Date
    31.12.1996 19:29:41
    Source
    Spektrum der Wissenschaft. 1999, H.8, S.44-49
  2. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.01
    0.008371796 = product of:
      0.04464958 = sum of:
        0.018145926 = weight(_text_:internet in 3276) [ClassicSimilarity], result of:
          0.018145926 = score(doc=3276,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.017993357 = weight(_text_:der in 3276) [ClassicSimilarity], result of:
          0.017993357 = score(doc=3276,freq=6.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.29922754 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.008510296 = product of:
          0.025530888 = sum of:
            0.025530888 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.025530888 = score(doc=3276,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
  3. Notess, G.R.: Search engine relevance : the never-ending quest (2000) 0.01
    0.007133599 = product of:
      0.05706879 = sum of:
        0.036291853 = weight(_text_:internet in 4797) [ClassicSimilarity], result of:
          0.036291853 = score(doc=4797,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.45665127 = fieldWeight in 4797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=4797)
        0.020776939 = weight(_text_:der in 4797) [ClassicSimilarity], result of:
          0.020776939 = score(doc=4797,freq=2.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34551817 = fieldWeight in 4797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=4797)
      0.125 = coord(2/16)
    
    Abstract
    Bericht über verschiedene Relevanzverfahren der Suchdienste des Internet
  4. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.01
    0.0066640554 = product of:
      0.053312443 = sum of:
        0.036291853 = weight(_text_:internet in 3445) [ClassicSimilarity], result of:
          0.036291853 = score(doc=3445,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.45665127 = fieldWeight in 3445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=3445)
        0.017020592 = product of:
          0.051061776 = sum of:
            0.051061776 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.051061776 = score(doc=3445,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Date
    25. 8.2005 17:42:22
  5. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.00
    0.0048890607 = product of:
      0.039112486 = sum of:
        0.015553651 = weight(_text_:internet in 5771) [ClassicSimilarity], result of:
          0.015553651 = score(doc=5771,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.1957077 = fieldWeight in 5771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
        0.023558835 = weight(_text_:der in 5771) [ClassicSimilarity], result of:
          0.023558835 = score(doc=5771,freq=14.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.3917808 = fieldWeight in 5771, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
      0.125 = coord(2/16)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  6. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.00
    0.0033145444 = product of:
      0.026516356 = sum of:
        0.016790302 = weight(_text_:der in 1484) [ClassicSimilarity], result of:
          0.016790302 = score(doc=1484,freq=4.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.27922085 = fieldWeight in 1484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.009726053 = product of:
          0.029178157 = sum of:
            0.029178157 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.029178157 = score(doc=1484,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  7. Bhansali, D.; Desai, H.; Deulkar, K.: ¬A study of different ranking approaches for semantic search (2015) 0.00
    0.002409794 = product of:
      0.019278351 = sum of:
        0.006316973 = product of:
          0.018950919 = sum of:
            0.018950919 = weight(_text_:k in 2696) [ClassicSimilarity], result of:
              0.018950919 = score(doc=2696,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.19720423 = fieldWeight in 2696, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2696)
          0.33333334 = coord(1/3)
        0.012961377 = weight(_text_:internet in 2696) [ClassicSimilarity], result of:
          0.012961377 = score(doc=2696,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.16308975 = fieldWeight in 2696, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2696)
      0.125 = coord(2/16)
    
    Abstract
    Search Engines have become an integral part of our day to day life. Our reliance on search engines increases with every passing day. With the amount of data available on Internet increasing exponentially, it becomes important to develop new methods and tools that help to return results relevant to the queries and reduce the time spent on searching. The results should be diverse but at the same time should return results focused on the queries asked. Relation Based Page Rank [4] algorithms are considered to be the next frontier in improvement of Semantic Web Search. The probability of finding relevance in the search results as posited by the user while entering the query is used to measure the relevance. However, its application is limited by the complexity of determining relation between the terms and assigning explicit meaning to each term. Trust Rank is one of the most widely used ranking algorithms for semantic web search. Few other ranking algorithms like HITS algorithm, PageRank algorithm are also used for Semantic Web Searching. In this paper, we will provide a comparison of few ranking approaches.
  8. Weinstein, A.: Hochprozentig : Tipps and tricks für ein Top-Ranking (2002) 0.00
    0.0022912694 = product of:
      0.03666031 = sum of:
        0.03666031 = weight(_text_:internet in 1083) [ClassicSimilarity], result of:
          0.03666031 = score(doc=1083,freq=4.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.46128747 = fieldWeight in 1083, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
      0.0625 = coord(1/16)
    
    Abstract
    Die Suchmaschinen haben in den letzten Monaten an ihren Ranking-Algorithmen gefeilt, um Spamern das Handwerk zu erschweren. Internet Pro beleuchtet die Trends im Suchmaschinen-Marketing
    Source
    Internet Professionell. 2002, H.9, S.66-71
  9. Zhang, D.; Dong, Y.: ¬An effective algorithm to rank Web resources (2000) 0.00
    0.0022682408 = product of:
      0.036291853 = sum of:
        0.036291853 = weight(_text_:internet in 3662) [ClassicSimilarity], result of:
          0.036291853 = score(doc=3662,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.45665127 = fieldWeight in 3662, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=3662)
      0.0625 = coord(1/16)
    
    Theme
    Internet
  10. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.00
    0.0013117424 = product of:
      0.020987878 = sum of:
        0.020987878 = weight(_text_:der in 868) [ClassicSimilarity], result of:
          0.020987878 = score(doc=868,freq=16.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34902605 = fieldWeight in 868, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.0625 = coord(1/16)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  11. Wills, R.S.: Google's PageRank : the math behind the search engine (2006) 0.00
    0.0012961377 = product of:
      0.020738203 = sum of:
        0.020738203 = weight(_text_:internet in 5954) [ClassicSimilarity], result of:
          0.020738203 = score(doc=5954,freq=8.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.2609436 = fieldWeight in 5954, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5954)
      0.0625 = coord(1/16)
    
    Abstract
    Approximately 91 million American adults use the Internet on a typical day The number-one Internet activity is reading and writing e-mail. Search engine use is next in line and continues to increase in popularity. In fact, survey findings indicate that nearly 60 million American adults use search engines on a given day. Even though there are many Internet search engines, Google, Yahoo!, and MSN receive over 81% of all search requests. Despite claims that the quality of search provided by Yahoo! and MSN now equals that of Google, Google continues to thrive as the search engine of choice, receiving over 46% of all search requests, nearly double the volume of Yahoo! and over four times that of MSN. I use Google's search engine on a daily basis and rarely request information from other search engines. One day, I decided to visit the homepages of Google. Yahoo!, and MSN to compare the quality of search results. Coffee was on my mind that day, so I entered the simple query "coffee" in the search box at each homepage. Table 1 shows the top ten (unsponsored) results returned by each search engine. Although ordered differently, two webpages, www.peets.com and www.coffeegeek.com, appear in all three top ten lists. In addition, each pairing of top ten lists has two additional results in common. Depending on the information I hoped to obtain about coffee by using the search engines, I could argue that any one of the three returned better results: however, I was not looking for a particular webpage, so all three listings of search results seemed of equal quality. Thus, I plan to continue using Google. My decision is indicative of the problem Yahoo!, MSN, and other search engine companies face in the quest to obtain a larger percentage of Internet search volume. Search engine users are loyal to one or a few search engines and are generally happy with search results. Thus, as long as Google continues to provide results deemed high in quality, Google likely will remain the top search engine. But what set Google apart from its competitors in the first place? The answer is PageRank. In this article I explain this simple mathematical algorithm that revolutionized Web search.
  12. Lanvent, A.: Licht im Daten Chaos (2004) 0.00
    0.0012852398 = product of:
      0.020563837 = sum of:
        0.020563837 = weight(_text_:der in 2806) [ClassicSimilarity], result of:
          0.020563837 = score(doc=2806,freq=24.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34197432 = fieldWeight in 2806, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
      0.0625 = coord(1/16)
    
    Abstract
    Spätestens bei der Suche nach E-Mails, PDF-Dokumenten oder Bildern mit Texten kapituliert die Windows-Suche. Vier von neun Desktop-Suchtools finden dagegen beinahe jede verborgene Datei.
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
  13. Ding, Y.; Chowdhury, G.; Foo, S.: Organsising keywords in a Web search environment : a methodology based on co-word analysis (2000) 0.00
    9.721032E-4 = product of:
      0.015553651 = sum of:
        0.015553651 = weight(_text_:internet in 105) [ClassicSimilarity], result of:
          0.015553651 = score(doc=105,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.1957077 = fieldWeight in 105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=105)
      0.0625 = coord(1/16)
    
    Abstract
    The rapid development of the Internet and World Wide Web has caused some critical problem for information retrieval. Researchers have made several attempts to solve these problems. Thesauri and subject heading lists as traditional information retrieval tools have been criticised for their efficiency to tackle these newly emerging problems. This paper proposes an information retrieval tool generated by cocitation analysis, comprising keyword clusters with relationships based on the co-occurrences of keywords in the literature. Such a tool can play the role of an associative thesaurus that can provide information about the keywords in a domain that might be useful for information searching and query expansion
  14. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (1999) 0.00
    7.870454E-4 = product of:
      0.012592726 = sum of:
        0.012592726 = weight(_text_:der in 5777) [ClassicSimilarity], result of:
          0.012592726 = score(doc=5777,freq=4.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.20941564 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
      0.0625 = coord(1/16)
    
    Classification
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
    RVK
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
  15. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.00
    5.527352E-4 = product of:
      0.008843763 = sum of:
        0.008843763 = product of:
          0.026531288 = sum of:
            0.026531288 = weight(_text_:k in 5023) [ClassicSimilarity], result of:
              0.026531288 = score(doc=5023,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27608594 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.33333334 = coord(1/3)
      0.0625 = coord(1/16)
    
  16. Furner, J.: ¬A unifying model of document relatedness for hybrid search engines (2003) 0.00
    4.5590868E-4 = product of:
      0.007294539 = sum of:
        0.007294539 = product of:
          0.021883616 = sum of:
            0.021883616 = weight(_text_:22 in 2717) [ClassicSimilarity], result of:
              0.021883616 = score(doc=2717,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.23214069 = fieldWeight in 2717, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2717)
          0.33333334 = coord(1/3)
      0.0625 = coord(1/16)
    
    Date
    11. 9.2004 17:32:22
  17. Agosti, M.; Pretto, L.: ¬A theoretical study of a generalized version of kleinberg's HITS algorithm (2005) 0.00
    3.8337262E-4 = product of:
      0.006133962 = sum of:
        0.006133962 = product of:
          0.018401885 = sum of:
            0.018401885 = weight(_text_:29 in 4) [ClassicSimilarity], result of:
              0.018401885 = score(doc=4,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.19432661 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.33333334 = coord(1/3)
      0.0625 = coord(1/16)
    
    Date
    31.12.1996 19:29:41