Search (492 results, page 2 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (2005) 0.06
    0.05814619 = product of:
      0.17443857 = sum of:
        0.105906345 = weight(_text_:suchmaschine in 7) [ClassicSimilarity], result of:
          0.105906345 = score(doc=7,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4997702 = fieldWeight in 7, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=7)
        0.06853223 = weight(_text_:ranking in 7) [ClassicSimilarity], result of:
          0.06853223 = score(doc=7,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.33806428 = fieldWeight in 7, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03125 = fieldNorm(doc=7)
      0.33333334 = coord(2/6)
    
    Content
    Inhalt: Introduction Document File Preparation - Manual Indexing - Information Extraction - Vector Space Modeling - Matrix Decompositions - Query Representations - Ranking and Relevance Feedback - Searching by Link Structure - User Interface - Book Format Document File Preparation Document Purification and Analysis - Text Formatting - Validation - Manual Indexing - Automatic Indexing - Item Normalization - Inverted File Structures - Document File - Dictionary List - Inversion List - Other File Structures Vector Space Models Construction - Term-by-Document Matrices - Simple Query Matching - Design Issues - Term Weighting - Sparse Matrix Storage - Low-Rank Approximations Matrix Decompositions QR Factorization - Singular Value Decomposition - Low-Rank Approximations - Query Matching - Software - Semidiscrete Decomposition - Updating Techniques Query Management Query Binding - Types of Queries - Boolean Queries - Natural Language Queries - Thesaurus Queries - Fuzzy Queries - Term Searches - Probabilistic Queries Ranking and Relevance Feedback Performance Evaluation - Precision - Recall - Average Precision - Genetic Algorithms - Relevance Feedback Searching by Link Structure HITS Method - HITS Implementation - HITS Summary - PageRank Method - PageRank Adjustments - PageRank Implementation - PageRank Summary User Interface Considerations General Guidelines - Search Engine Interfaces - Form Fill-in - Display Considerations - Progress Indication - No Penalties for Error - Results - Test and Retest - Final Considerations Further Reading
    RSWK
    Suchmaschine / Information Retrieval
    Suchmaschine / Information Retrieval / Mathematisches Modell (HEBIS)
    Subject
    Suchmaschine / Information Retrieval
    Suchmaschine / Information Retrieval / Mathematisches Modell (HEBIS)
  2. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.05
    0.053438276 = product of:
      0.16031483 = sum of:
        0.105906345 = weight(_text_:suchmaschine in 997) [ClassicSimilarity], result of:
          0.105906345 = score(doc=997,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4997702 = fieldWeight in 997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0625 = fieldNorm(doc=997)
        0.05440849 = product of:
          0.081612736 = sum of:
            0.04099074 = weight(_text_:29 in 997) [ClassicSimilarity], result of:
              0.04099074 = score(doc=997,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.31092256 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
            0.040622 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.040622 = score(doc=997,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    "Alle benutzen Google". So läßt sich kurz und prägnant die Entwicklung im Bereich der WWW-Suche in der letzten Zeit auf den Punkt bringen. Durch gute Suchergebnisse und eine schlichte, ausgesprochen gut bedienbare Benutzerschnittstelle hat sich Google als die Suchmaschine für alle Zwecke etabliert. Im Zuge dieser Entwicklung fanden größere Veränderungen auf dem Markt statt: Einige Bewerber mussten ihre Suchwerkzeuge aufgeben, neue Firmen haben dafür die Herausforderung angenommen, dem Benutzer noch bessere Ergebnisse oder wenigsten innovative Features zu bieten
    Date
    29. 9.2002 18:49:22
  3. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.05
    0.050706387 = product of:
      0.15211916 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 5771) [ClassicSimilarity], result of:
          0.07942976 = score(doc=5771,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 5771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
        0.0726894 = weight(_text_:ranking in 5771) [ClassicSimilarity], result of:
          0.0726894 = score(doc=5771,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 5771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
      0.33333334 = coord(2/6)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  4. Sauer, D.: Watson sucht, Holmes findet! (1999) 0.05
    0.049820803 = product of:
      0.1494624 = sum of:
        0.13238293 = weight(_text_:suchmaschine in 2605) [ClassicSimilarity], result of:
          0.13238293 = score(doc=2605,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.62471277 = fieldWeight in 2605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=2605)
        0.017079476 = product of:
          0.051238425 = sum of:
            0.051238425 = weight(_text_:29 in 2605) [ClassicSimilarity], result of:
              0.051238425 = score(doc=2605,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38865322 = fieldWeight in 2605, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2605)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Selbst die beste Suchmaschine findet nicht alles im Netz. Effektiver und auch preiswerter ist die Suche mit Meta-suchmaschinen. Doch was taugen die Super-Sucher? Com!online hat alle Meta-Helfer getestet und stellt die 10 besten vor. Der Sieger heißt Profusion
    Date
    1. 8.1997 14:03:29
  5. Langville, A.N.; Meyer, C.D.: Google's PageRank and beyond : the science of search engine rankings (2006) 0.05
    0.0483971 = product of:
      0.1451913 = sum of:
        0.05616532 = weight(_text_:suchmaschine in 6) [ClassicSimilarity], result of:
          0.05616532 = score(doc=6,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.26504317 = fieldWeight in 6, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6)
        0.089025974 = weight(_text_:ranking in 6) [ClassicSimilarity], result of:
          0.089025974 = score(doc=6,freq=12.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.43915838 = fieldWeight in 6, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6)
      0.33333334 = coord(2/6)
    
    Content
    Inhalt: Chapter 1. Introduction to Web Search Engines: 1.1 A Short History of Information Retrieval - 1.2 An Overview of Traditional Information Retrieval - 1.3 Web Information Retrieval Chapter 2. Crawling, Indexing, and Query Processing: 2.1 Crawling - 2.2 The Content Index - 2.3 Query Processing Chapter 3. Ranking Webpages by Popularity: 3.1 The Scene in 1998 - 3.2 Two Theses - 3.3 Query-Independence Chapter 4. The Mathematics of Google's PageRank: 4.1 The Original Summation Formula for PageRank - 4.2 Matrix Representation of the Summation Equations - 4.3 Problems with the Iterative Process - 4.4 A Little Markov Chain Theory - 4.5 Early Adjustments to the Basic Model - 4.6 Computation of the PageRank Vector - 4.7 Theorem and Proof for Spectrum of the Google Matrix Chapter 5. Parameters in the PageRank Model: 5.1 The a Factor - 5.2 The Hyperlink Matrix H - 5.3 The Teleportation Matrix E Chapter 6. The Sensitivity of PageRank; 6.1 Sensitivity with respect to alpha - 6.2 Sensitivity with respect to H - 6.3 Sensitivity with respect to vT - 6.4 Other Analyses of Sensitivity - 6.5 Sensitivity Theorems and Proofs Chapter 7. The PageRank Problem as a Linear System: 7.1 Properties of (I - alphaS) - 7.2 Properties of (I - alphaH) - 7.3 Proof of the PageRank Sparse Linear System Chapter 8. Issues in Large-Scale Implementation of PageRank: 8.1 Storage Issues - 8.2 Convergence Criterion - 8.3 Accuracy - 8.4 Dangling Nodes - 8.5 Back Button Modeling
    Chapter 9. Accelerating the Computation of PageRank: 9.1 An Adaptive Power Method - 9.2 Extrapolation - 9.3 Aggregation - 9.4 Other Numerical Methods Chapter 10. Updating the PageRank Vector: 10.1 The Two Updating Problems and their History - 10.2 Restarting the Power Method - 10.3 Approximate Updating Using Approximate Aggregation - 10.4 Exact Aggregation - 10.5 Exact vs. Approximate Aggregation - 10.6 Updating with Iterative Aggregation - 10.7 Determining the Partition - 10.8 Conclusions Chapter 11. The HITS Method for Ranking Webpages: 11.1 The HITS Algorithm - 11.2 HITS Implementation - 11.3 HITS Convergence - 11.4 HITS Example - 11.5 Strengths and Weaknesses of HITS - 11.6 HITS's Relationship to Bibliometrics - 11.7 Query-Independent HITS - 11.8 Accelerating HITS - 11.9 HITS Sensitivity Chapter 12. Other Link Methods for Ranking Webpages: 12.1 SALSA - 12.2 Hybrid Ranking Methods - 12.3 Rankings based on Traffic Flow Chapter 13. The Future of Web Information Retrieval: 13.1 Spam - 13.2 Personalization - 13.3 Clustering - 13.4 Intelligent Agents - 13.5 Trends and Time-Sensitive Search - 13.6 Privacy and Censorship - 13.7 Library Classification Schemes - 13.8 Data Fusion Chapter 14. Resources for Web Information Retrieval: 14.1 Resources for Getting Started - 14.2 Resources for Serious Study Chapter 15. The Mathematics Guide: 15.1 Linear Algebra - 15.2 Perron-Frobenius Theory - 15.3 Markov Chains - 15.4 Perron Complementation - 15.5 Stochastic Complementation - 15.6 Censoring - 15.7 Aggregation - 15.8 Disaggregation
    RSWK
    Google / Suchmaschine / Ranking (BVB)
    Subject
    Google / Suchmaschine / Ranking (BVB)
  6. ¬Der große, exklusive TOMORROW-Text : Die beste Suchmaschine der Welt ... und der beste Web-Katalog ... und der beste Metasucher (2000) 0.05
    0.04766935 = product of:
      0.14300805 = sum of:
        0.13105242 = weight(_text_:suchmaschine in 1522) [ClassicSimilarity], result of:
          0.13105242 = score(doc=1522,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.6184341 = fieldWeight in 1522, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1522)
        0.011955633 = product of:
          0.035866898 = sum of:
            0.035866898 = weight(_text_:29 in 1522) [ClassicSimilarity], result of:
              0.035866898 = score(doc=1522,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.27205724 = fieldWeight in 1522, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1522)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Darunter Einzel-Beiträge zu: Acoon, Yahoo, MetaGer; Interviews mit den Suchmaschinen-Bossen zu: Wer ist der Lieblingskonkurrent?; So arbeitet eine Suchmaschine; KARZAUNINKAT, S.: So einfach finden sie, was Sie gerade wollen; 20 Fragen: Welcher Suchmaschinen-Typ sind Sie?; KARZAUNINKAT, S.: Kontrolle ist der beste Schutz; BETZ, S.: Darum suchen Sie kostenlos; GLASER, S.: Zwischen Quatsch und Quantenphysik; Suchmaschinen für Spezialfragen
    Date
    29. 4.2000 18:10:50
  7. Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002) 0.05
    0.046793263 = product of:
      0.14037979 = sum of:
        0.066191465 = weight(_text_:suchmaschine in 569) [ClassicSimilarity], result of:
          0.066191465 = score(doc=569,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.31235638 = fieldWeight in 569, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=569)
        0.074188314 = weight(_text_:ranking in 569) [ClassicSimilarity], result of:
          0.074188314 = score(doc=569,freq=12.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.36596534 = fieldWeight in 569, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.01953125 = fieldNorm(doc=569)
      0.33333334 = coord(2/6)
    
    Abstract
    Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
    Content
    "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
    Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
  8. Karzaunikat, S.: Google zugemüllt : Spam überschwemmt die Suchergebnisse (2003) 0.05
    0.04672573 = product of:
      0.14017719 = sum of:
        0.091717586 = weight(_text_:suchmaschine in 1963) [ClassicSimilarity], result of:
          0.091717586 = score(doc=1963,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4328137 = fieldWeight in 1963, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=1963)
        0.0484596 = weight(_text_:ranking in 1963) [ClassicSimilarity], result of:
          0.0484596 = score(doc=1963,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.23904754 = fieldWeight in 1963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03125 = fieldNorm(doc=1963)
      0.33333334 = coord(2/6)
    
    Abstract
    Google ist die bei weitem beliebteste Suchmaschine; "Googeln" ist zum Synonym für internetrecherchen schlechthin geworden. Aber der Erfolg ruft auch zwielichtige "Suchmaschinenoptimierer" auf den Plan, die mit allerlei Tricks die Trefferlisten manipulieren.
    Content
    Die Suche mit Google, früher meist auf Anhieb erfolgreich, bereitet in letzter Zeit zunehmend Frust. Sucht man zum Beispiel mit den Begriffen "kfz kaufen lüneburg" nach Autohändlern in der Heidestadt, erhält man als ersten Treffer eine Site, die laut Inhaltsangabe in der Trefferliste die Begriffe "Eu-Auto Neuwagenmarkt kaufen Reimport-Auto Fahrzeug" enthält. Als Adresse gibt die Suchmaschine eu-reimport-auto.department1.de/kaufen/ an. Doch dieser Treffer passt nur scheinbar gut zu der Anfrage. Klickt man nämlich auf den Link, landet man nach mehreren Weiterleitungen auf verschiedenen anderen Sites, meistens auf einer allgemeinen Startseite von eBay, http://pages.ebay. de, auf der man dann vergeblich nach "lüneburg" und "kfz" Ausschau hält. Sucht man mit der Abfrage "diascanner test" nach Diascanner-Vergleichen, dann führt der erste Treffer zur Ergebnisseite einer anderen Suchmaschine namens Biveroo mit nutzlosen Verweisen, obwohl der Link angeblich auf die Site www.sisira.de führen soll. Die zweite Site in der Trefferliste listet unter der Domain diascanner.org eBay-Auktionen und Links des Pay-forPerformance-Anbieters Espotting - also gekaufte Links, Werbung. Testberichte? Auch hier Fehlanzeige. Insgesamt finden sich unter den ersten zehn Verweisen nur drei relevante. Surfer erhalten bei Google-Recherchen im Umfeld von Produkten und Dienstleistungen immer mehr unbrauchbare oder in anderer Weise ungewöhnliche Treffer: Webseiten, die mit der Abfrage kaum etwas zu tun haben, zum Teil nicht einmal den Suchbegriff enthalten, wirre Linksammlungen oder gar Ergebnisseiten anderer Suchmaschinen. Mitunter landet man nach dem Klick auch bei einer anderen Adresse, als Googie in seiner Ergebnisliste angibt. Immer seltener finden sich neutrale Informationen; statt dessen landet der Surfer immer häufiger in irgendwelchen Online-Shops oder auf E-Commerce-Portalen. Verseuchte Ergebnisse Die Verseuchung der GoogleSuchergebnisse durch aufdringliche Geschäftemacherei ist findigen Tricksern zu verdanken. Sie haben Wege gefunden, bei immer mehr Suchanfragen ihre Links unter den ersten Treffern zu platzieren. So fällt nun auch Google einer Entwicklung anheim, die viele andere Suchdienste bereits vor Jahren heimgesucht und weitgehend unbrauchbar gemacht hat. Dabei galt doch der geniale Google-Algorithmus zur Bestimmung der Trefferrelevanz ("Ranking") lange Zeit als immun gegen Manipulationsversuche. Der Suchmaschinenprimus zieht nicht nur die in den HTMLSeiten enthaltenen Schlüsselwörter heran, wie es die Suchdienste in der Vor-Google-Ära taten. Stattdessen bestimmen bei Google vor allem Verweise fremder Seiten und damit die Wertschätzung durch andere Webmaster darüber, welche Position eine Website in der Trefferliste erhält. Aber nicht nur die bloße Anzahl der Links, sondern auch der Rang der verweisenden Website fließt in die Bewertung ein. Daraus errechnet Google den so genannten Page Rank, benannt übrigens nach dem Erfinder Larry Page [11. Jedermann kann sich mit der erweiterten Version der Google-Toolbar für den Internet Explorer den Page Rank beliebiger Seiten anzeigen lassen.
  9. Chang, C.-H.; Hsu, C.-C.: Customizable multi-engine search tool with clustering (1997) 0.04
    0.044137247 = product of:
      0.13241173 = sum of:
        0.084804304 = weight(_text_:ranking in 2670) [ClassicSimilarity], result of:
          0.084804304 = score(doc=2670,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 2670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2670)
        0.047607433 = product of:
          0.07141115 = sum of:
            0.035866898 = weight(_text_:29 in 2670) [ClassicSimilarity], result of:
              0.035866898 = score(doc=2670,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.27205724 = fieldWeight in 2670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2670)
            0.03554425 = weight(_text_:22 in 2670) [ClassicSimilarity], result of:
              0.03554425 = score(doc=2670,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 2670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2670)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Proposes a new idea of searching under the multi-engine search architecture to overcome the problems associated with relevance ranking. These include clustering of the search results and extraction of co-occurence keywords, which, with the user's feedback, better refines the query in the searching process. The system also provides the construction of the concept space to gradually customize the search tool to fit the usage for the user at the same time
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1217-1224
  10. Baeza-Yates, R.; Boldi, P.; Castillo, C.: Generalizing PageRank : damping functions for linkbased ranking algorithms (2006) 0.04
    0.043203976 = product of:
      0.12961192 = sum of:
        0.121149 = weight(_text_:ranking in 2565) [ClassicSimilarity], result of:
          0.121149 = score(doc=2565,freq=8.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5976189 = fieldWeight in 2565, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2565)
        0.008462917 = product of:
          0.025388751 = sum of:
            0.025388751 = weight(_text_:22 in 2565) [ClassicSimilarity], result of:
              0.025388751 = score(doc=2565,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.19345059 = fieldWeight in 2565, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2565)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    This paper introduces a family of link-based ranking algorithms that propagate page importance through links. In these algorithms there is a damping function that decreases with distance, so a direct link implies more endorsement than a link through a long path. PageRank is the most widely known ranking function of this family. The main objective of this paper is to determine whether this family of ranking techniques has some interest per se, and how different choices for the damping function impact on rank quality and on convergence speed. Even though our results suggest that PageRank can be approximated with other simpler forms of rankings that may be computed more efficiently, our focus is of more speculative nature, in that it aims at separating the kernel of PageRank, that is, link-based importance propagation, from the way propagation decays over paths. We focus on three damping functions, having linear, exponential, and hyperbolic decay on the lengths of the paths. The exponential decay corresponds to PageRank, and the other functions are new. Our presentation includes algorithms, analysis, comparisons and experiments that study their behavior under different parameters in real Web graph data. Among other results, we show how to calculate a linear approximation that induces a page ordering that is almost identical to PageRank's using a fixed small number of iterations; comparisons were performed using Kendall's tau on large domain datasets.
    Date
    16. 1.2016 10:22:28
  11. Speck, H.; Thiele, F.P.: Goggle, Gossip & PR-ostitution : Das Geschäft einer Suchmaschine (2005) 0.04
    0.042255323 = product of:
      0.12676597 = sum of:
        0.066191465 = weight(_text_:suchmaschine in 3508) [ClassicSimilarity], result of:
          0.066191465 = score(doc=3508,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.31235638 = fieldWeight in 3508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3508)
        0.0605745 = weight(_text_:ranking in 3508) [ClassicSimilarity], result of:
          0.0605745 = score(doc=3508,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.29880944 = fieldWeight in 3508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3508)
      0.33333334 = coord(2/6)
    
    Abstract
    Jean Baudrillard, der französische Philosoph und Hyperrealist, beschreibt in »Disney World Company« eine Welt, die sich durch die Globalisierung, Vernetzung, und Synchronisierung von Informationen auszeichnet. Der schnelle, uneingeschränkte Zugriff auf neueste Informationen wird darin immer wichtiger und zwanghafter. Einzig automatisierte Suchmaschinen scheinen in der Lage, dieser ständig anwachsenden Informationsflut Paroli zu bieten und das schnelle Auffinden von Informationen zu gewährleisten. Ein Drittel der Bevölkerung sucht täglich auf diesem Wege nach gewünschten Resultaten. Der Marktführer Google verzeichnet täglich über 200 Millionen Suchanfragen. Der Verlust der editorialen Filter- und Kontrollebene wird jedoch von der Mehrheit noch nicht wahrgenommen - die medienpolitische Einordnung von Suchmaschinen findet kaum statt. Sie werden als unfehlbare, allwissende Götter angesehen. Der relativ junge Suchmaschinenmarkt hat sich in den letzten Jahren stark gewandelt: In seiner Sturm- und Drangphase noch durch eine Vielzahl kleinerer Suchmaschinen gekennzeichnet, wird der Markt momentan von Google, Microsoft und Yahoo! klar dominiert. Diese Monopolstellung und damit zwangsläufig verbundene Machtpositionen beeinflussen unseren heutigen Zugang zu Wissen. Wenige Suchmaschinenbetreiber entscheiden dabei über die Auswahl, Reihenfolge und Bewertung von Informationen, ohne dass die zu Grunde liegenden Maßstäbe transparent gemacht werden. Verschärfend kommt hinzu, dass das Ranking gerade im kommerziellen Bereich erhebliche finanzielle Konsequenzen haben kann, die kommerzielle Anbieter zu massiven »Lobby«- und Manipulationstätigkeiten, so genanntem Search-Engine-Marketing motivieren. Diese Search-Engine-Optimierungen (SEO) sind verstärkt im Vermittler- und Resellerbereich zu verzeichnen, dem so genannten Affiliate Business, wo solche Manipulationen kombiniert mit der Allmacht der Suchmaschinen über die von ihnen indizierten Dokumente, die wesentlichen Probleme und Schwachstellen heutiger Suchmaschinen charakterisieren.
  12. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.04
    0.041115567 = product of:
      0.1233467 = sum of:
        0.0748871 = weight(_text_:suchmaschine in 866) [ClassicSimilarity], result of:
          0.0748871 = score(doc=866,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.3533909 = fieldWeight in 866, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
        0.0484596 = weight(_text_:ranking in 866) [ClassicSimilarity], result of:
          0.0484596 = score(doc=866,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.23904754 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
    Diese Seminararbeit widmet sich der Darstellung des PageRank-Algorithmus sowie der Erläuterung von Verbesserungen, durch die der Algorithmus schneller und effizienter wird. Hierzu werden dem Leser in Kapitel 2 zunächst einige Grundlagen nahe gebracht. Anschließend wird im Hauptteil dieser Ausarbeitung in Kapitel 3 detailliert auf den PageRank-Algorithmus sowie auf drei Weiterentwicklungen eingegangen, welche die Verarbeitungseffizienz des Grundalgorithmus so erhöhen, dass dadurch ein themenspezifisches Ranking ermöglicht werden könnte. Abschließend werden die Ergebnisse in Kapitel 4 zusammengefasst und ein Ausblick auf die Zukunft gegeben.
  13. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.04
    0.041115567 = product of:
      0.1233467 = sum of:
        0.0748871 = weight(_text_:suchmaschine in 3023) [ClassicSimilarity], result of:
          0.0748871 = score(doc=3023,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.3533909 = fieldWeight in 3023, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.0484596 = weight(_text_:ranking in 3023) [ClassicSimilarity], result of:
          0.0484596 = score(doc=3023,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.23904754 = fieldWeight in 3023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.33333334 = coord(2/6)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
  14. Wikia Search : Das Anti-Google (2008) 0.04
    0.041036632 = product of:
      0.12310989 = sum of:
        0.11464698 = weight(_text_:suchmaschine in 369) [ClassicSimilarity], result of:
          0.11464698 = score(doc=369,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.5410171 = fieldWeight in 369, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
        0.008462917 = product of:
          0.025388751 = sum of:
            0.025388751 = weight(_text_:22 in 369) [ClassicSimilarity], result of:
              0.025388751 = score(doc=369,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.19345059 = fieldWeight in 369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=369)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Es ist ein Start mit verschiedenen Schwächen: Der neue Google-Konkurrent "Wikia Search" verschreckt den User in seiner aktuellen Vor-abversion mit fehlerhaften Links, fehlenden Ergebnissen oder auch fragwürdigen Seitenbewertungen. Trotzdem bietet die neue Suchmaschine des Wikipedia-Gründers Jimmy Wales schon jetzt einen unschätzbaren Vorteil gegenüber dein Branchenprimus Google: Wikia Search legt den Nutzern offen, wie die Suchergebnisse zustande kommen. Sie setzt nämlich OpenSource-Programme ein - etwa den Webcrawler Grub. Dessen Algorithmen liegen für jedermann offen einsehbar im Web. Wikia Search fordert gar zum aktiven Mitmachen auf: Die Surfer können angezeigte Links bewerten Lind so die Rangfolge der Ergebnisse beeinflussen. Die Suchmaschine soll die Ergebnisse mit der Zeit besser nach Relevanz und Qualität sortieren, verspricht das Entwicklerteam. Derzeit speichert die Seite Bewertungen durch User jedoch noch nicht ab. Zusätzlich zeigt Wikia Search, passend zu den Suchbegriffen, jeweils einen kurzen Übersichtsartikel an, der allgemeine Informationen enthält. Sollte so ein Text noch fehlen, kann ganz einfach per Mausklick ein neues Dokument angelegt werden. Praktisch dabei: Jeder Nutzer hat die Möglichkeit, den Inhalt ohne Anmeldung zu bearbeiten und zu erweitern. Eine Alternative zur normalen Suche soll die »Whitelist« sein. Darin können User eine Art Webseiten-Kata-log anlegen, der für bessere Suchergebnisse sorgen soll. Die Idee einer offenen und nutzerorientierten Suchmaschine klingt vielversprechend - eine ernsthafte Konkurrenz für etablierte Suchmaschinen wie Google kann Wikia Search allerdings noch nicht sein. Denn die neue Websuche ist abhängig von der Community und ihrer Mitarbeit an dem Projekt. Dass so ein Ansatz funktionieren kann, hat die Online-Enzyklopädie Wikipedia immerhin gezeigt."
    Source
    Chip. 2008, H.3, S.22
  15. ap: Konkurrenz für Google : Neue Suchmaschine "Teoma" gestartet (2002) 0.04
    0.040828712 = product of:
      0.12248614 = sum of:
        0.11233064 = weight(_text_:suchmaschine in 187) [ClassicSimilarity], result of:
          0.11233064 = score(doc=187,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.53008634 = fieldWeight in 187, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=187)
        0.0101555 = product of:
          0.030466499 = sum of:
            0.030466499 = weight(_text_:22 in 187) [ClassicSimilarity], result of:
              0.030466499 = score(doc=187,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=187)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Die Suchmaschine Google gilt oft als der beste Weg, um schnell etwas im Internet zu finden. Das war einmal, behauptet Apostolos Gerasoulis, jetzt gebe es www.teoma. com. "Wir sind die nächste Generation der Suchmaschinen", verspricht der Mathematikprofessor. Die Web-Sites von Google und Teoma sind ähnlich aufgemacht. Beide bieten eine weitgehend weiße Startseite mit wenigen, klaren Farben. Beide Suchmaschinen benutzen bei ihrer Arbeit zur Analyse der Anfragen einen komplizierten Algorithmus. Teoma hält den eigenen Ansatz aber für besser, weil dabei das Internet in Gruppen von Online-Gemeinschaften unterteilt wird. Dies liefere bessere Ergebnisse und erlaube eine nützlichere Auswahl. Zu einem Suchbegriff erscheinen bei Teoma zuerst links oben die bezahlten Verweise, darunter dann' alle anderen gefundenen Web-Seiten. Rechts erscheinen Vorschläge zur Verfeinerung der Suchanfrage, darunter manchmal Links von "Experten und Enthusiasten". Diese qualifizierten Antworten sind eine der Stärken, mit denen Teoma wuchern möchte. Sie sind besonders für Anfänger nützlich, die nach allgemeinen Themen wie Afrika" oder "Fußball" suchen. Allerdings könnte dieser Ergebnisdienst Nutzer auch überfordern, gerade wenn sie an das einfache Google gewöhnt seien, kritsiert Rob Lancaster von der Yankee Group."
    Date
    3. 5.1997 8:44:22
  16. Suck, M.: Ranking-Betrug bei Google & Co. : Suchmaschinen (2003) 0.04
    0.040495135 = product of:
      0.1214854 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 1337) [ClassicSimilarity], result of:
          0.052953172 = score(doc=1337,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 1337, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.015625 = fieldNorm(doc=1337)
        0.06853223 = weight(_text_:ranking in 1337) [ClassicSimilarity], result of:
          0.06853223 = score(doc=1337,freq=16.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.33806428 = fieldWeight in 1337, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.015625 = fieldNorm(doc=1337)
      0.33333334 = coord(2/6)
    
    Content
    "Google kam, sah und siegte: Keine neue Suchmaschine hat es in so kurzer Zeit geschafft, das Internet zu erobern. Mehr als die Hälfte aller weltweit gestellten Suchanfragen werden mittlerweile über die clevere Software der Kalifornier abgewickelt; mehr als 150 Millionen Surfer durchforsten täglich die gigantische Datenbank, die auf 10.000 PCs insgesamt drei Milliarden Webseiten indiziert hat. Dieser Erfolg kommt nicht von ungefähr: Google war die erste Suchmaschine, die Webseiten nach Wichtigkeit sortieren konnte - unentbehrlich, um den Überblick im Daten-Dschungel zu behalten. Doch Googles große Stärke wird nun immer mehr zum großen Manko. Der Grund: Professionelle Web-Vermarkter nutzen das Ranking-System von Google, um ihre Kundschaft in den Ergebnislisten gezielt nach oben zu drücken. Hinter harmlos klingendem Marketing-Neusprech wie "Site Promotion" oder "Suchmaschinen-Optimierung" steckt nichts anderes als der Versuch, der Suchmaschine wichtige Internet-Seiten vorzugaukeln - auch wenn diese Seiten das vielleicht gar nicht sind. Die Manipulationsversuche treffen nicht nur den Marktführer. Nachdem auch die Konkurrenz von Altavista, Fireball und AllTheWeb ihre Indizierungstechniken denen von Google angepasst hat (siehe Kasten auf S.226), leidet die Branche nun auf breiter Front unter dem Werbedauerfeuer der "Optimierer". Besonders deutlich wird der erfolgreiche Druck der Vermarkter bei allen Suchanfragen, die mit Produkten oder Preisinformationen zu tun haben. Dem liegt etwa die Erkenntnis der amerikanischen Marktforscher von Comescore zugrunde, dass nur 5 Prozent aller Internet-Nutzer direkt auf einer Webseite nach Produkten fahnden, 25 Prozent hingegen eine Suchmaschine bemühen. Schlimmer noch: Bei den Suchergebnissen klicken laut einer Untersuchung der Agentur Iprospect höchstens 23 Prozent der Nutzer auf die zweite Ergebnisseite, und auf den dritten Teil der Liste verirren sich gerade mal gut 10 Prozent. Ein Top-Ranking ist also überlebenswichtig für OnlineShops. So kommt es, dass harmlose Suchbegriffe wie "BMW kaufen" oder "günstige Prozessoren" in der Top-10-Trefferliste bei Google gleich sieben Webseiten zu Tage fördern, die sich dank "Site Promotion" nach vorn geschmuggelt haben. Bei AltaVista ist gar die komplette erste Ergebnisseite das Werk der Optimierer. Das Perfide daran: Die Werbung ist als solche zunächst gar nicht zu erkennen. So stehen in der Ergebnisliste von Google zum Suchbegriff "BMW kaufen" lediglich harmlos klingende Adressen wie "www.fixe-flitzer.de", "www.traumhafte-autos.de" oder gar mutige Wortschöpfungen wie "www.kolbenholben.de".
    Wer jedoch einen dieser Links aufruft, wird per JavaScript blitzschnell auf ein "Zink Portal" der Firma n-factory (www.nfactory.com) geführt. Dieses Portal gibt es in fünf verschiedenen Ausführungen, aber immer mit dem gleichen Inhalt: Wer hier landet, kommt mit dem nächsten Klick zu Werbepartnern wie Autoscout24 oder Radblenden.de. Die Top-Platzierungen im Ranking der Suchmaschinen erreichen Firmen wie n-factory durch so genannte "Doorway Pages". Diese "Brückenseiten" sind der letzte Schrei bei den web-Vermarktern. Der Trick: Hunderte von verschiedenen Domains mit Tausenden von Webseiten werden mit identischem oder nur leicht variierendem Inhalt erstellt. Gleichzeitig verweisen diese Seiten konsequent aufeinander. Die Software-Spider der Suchmaschinen, die durchs Web wuseln und Seiten indizieren, achten ihrerseits genau auf den Grad der Verlinkung einer Webseite, um ihre Bedeutung festzustellen - schon rutscht die "Doorway Page" im Ranking nach oben. Darüber hinaus können die Werber noch weitere Waffen im Kampf um Bestplatzierungen ins Feld führen. Die älteste Form der Ranking-Manipulation ist das "Spamdexing". Hierbei werden Schlüsselbegriffe im Quelltext einer HTML-Seite gleich hundertfach wiederholt oder gar falsche Keyword-Listen eingebaut, die nichts mit dem Inhalt der Webseite zu tun haben. Beliebter, weil von den Suchmaschinen schwerer zu durchschauen, sind die "Cloaking Sites". Diese unsichtbaren (engl. "cloaked" = verhüllt) Webseiten werden nur für die Suchroboter von Google und Co. entworfen. Erkennt der Server einer solchen Cloaking Site die Such-Software anhand der IP-Adresse oder ihrer Identifikation, wird dem Spider eine gefälschte Webseite untergejubelt, die andere Surfer nie zu Gesicht bekommen. Fast jedenfalls: Die dunkle Seite des Webs erscheint zumindest in jenen Textauszügen, die die Suchmaschinen in ihren Ergebnislisten auswerfen - und meist wimmelt es dann nur so von Schlüsselwörtern ohne Zusammenhang. Im zuckersüßen Werberdeutsch werden derlei Maßnahmen natürlich ganz anders benannt. Optimierungs-Verfahren wie die berüchtigten Doorway Pages preist beispielsweise die Ebersberger Firma Imedia (www.imedia-online.de) als Allzweckwaffe, denn schließlich könnten diese Seiten "von Suchmaschinen nicht abgelehnt werden". Schön, dass Imedia auch gleich noch einen Rundumservice bietet und für Kunden Webseiten für "die Zielgruppe Suchmaschinen" baut. Von Ranking-Manipulation will Geschäftsführer Dominique Madelaine freilich nichts wissen, denn die Seiten von Imedia, so Madelaine, "sollen kein Spam sein"' und der Einsatz von Brückenseiten bleibe ohnehin "sehr begrenzt".
    Das mag für Imedia gelten, nicht aber unbedingt für die Partner der Firma. So gehören zum Portfolio der Ebersberger die beiden Services Webmasterplan (http://de.webmasterplan.com) und Affili.Net (www.affili.net). Webmaster plan erstellt die optimierten Webseiten, Affilinet besorgt die "Partnerprogramme" für eben diese Seiten. Interessierte Web-Administratoren können so Werbelinks und Banner für Imedia-Kunden auf ihren Seiten platzieren und mit den Klicks Geld verdienen. Interessanterweise befinden sich unter diesen Partnern auch die zahlreichen "Link Portale" von n-factory, die mit Seiten über "flinke Flitzer", "Kolbenholben" oder "Autotuningtrixx" hitverdächtige Rankings bei den Suchmaschinen erzeugen. Trotz des "Erfolges" mag n-factory-Geschäftsführer Stefan Englert aber nicht so recht über seine Brückenseiten reden. Schon die Erwähnung des Firmennamens in CHIP stieß bei Englert auf wenig Gegenliebe - und das bei einem Unternehmen, das laut Eigenwerbung lediglich "zielgruppengerechtes NetzMarketing" betreibt. Andere Ranking-Profis sind da auskunftsfreudiger. Dazu gehören die Firma Allactive Medien GmbH (www.allactive.de) und ihr Partner "Traffictime" aus Kevelaer. Deren Link-Portale erreichen bei Google Suchbegriffen für "günstige Prozessoren" in der Ergebnisliste die beachtlichen Plätze zwei, fünf und sieben und verlinken allesamt direkt auf die eBay-Homepage. Allactive-Chef Jens Menzenbach sieht darin auch gar nichts Verwerfliches, denn schließlich sei "das, was der User sucht, auch das, was er bei eBay findet". Ergo: Da man bei eBay alles findet, darf man auch jeden Suchbegriff auf eBay verlinken. Peinlich ist Allactive und Traffictime jedoch, dass selbst uralte Doorway-Pages gleich mehrfach bei den Suchmaschinen auftauchen - nach Hinweisen von CHIP nahm die Firma prompt die Übeltäter aus dem Index. Ohnehin, beteuert Menzenbach, gebe es für den Einsatz von DoorwayPages eine Grenze - eine finanzielle, keine moralische: "Der Traffic wird irgendwann zu teuer. 20.000 Seiten würden einem einfach das Genick brechen." Derart viele Seiten mögen tatsächlich unrealistisch sein, doch bis zu 2.000 Link-Portale sind durchaus nichts Ungewöhnliches. Und der Aufwand lohnt sich: Wird der arglose Surfer erfolgreich auf die Webseite des Werbekunden verfrachtet, wird dies laut Branchen-Informationen mit 10 bis 20 Cent Provision vergütet. Füllt der gutwillige Nutzer auch noch ein Formular mit seinen persönlichen Daten aus, werden für diesen "Lead" angeblich bis zu 4 Euro ausbezahlt. Und ein Verkauf, neudeutsch "Sale" genannt, schlägt gar mit ein bis fünf Prozent der Verkaufssumme zu Buche.
  17. dpa: Froogle sucht nach Produkten (2004) 0.04
    0.03981567 = product of:
      0.11944701 = sum of:
        0.105906345 = weight(_text_:suchmaschine in 2865) [ClassicSimilarity], result of:
          0.105906345 = score(doc=2865,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4997702 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0625 = fieldNorm(doc=2865)
        0.013540667 = product of:
          0.040622 = sum of:
            0.040622 = weight(_text_:22 in 2865) [ClassicSimilarity], result of:
              0.040622 = score(doc=2865,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.30952093 = fieldWeight in 2865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2865)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Ab sofort bietet Google als neuen Service auch in Deutschland die Produkt-Suchmaschine Froogle an. Froogle Deutschland sucht im Netz mit Hilfe der gleichen Technologie wie Google nach Informationen über Produkt-Angebote. Die Treffer können nach dem Preis sortiert und mit Bild gezeigt werden. Google, der führende Internet-Suchmaschinenbetreiber, erwartet nach jüngsten Studien, dass dieses Jahr 23 Millionen Deutsche online einkaufen und dabei über 7,6 Milliarden Euro ausgeben werden. Wie viele Einträge die Produktdatenbank zum Start bereit hält, teilte das Uriternehmen nicht mit. In den USA ist Froogle bereits seit rund zwei Jahren verfügbar."
    Date
    3. 5.1997 8:44:22
  18. Meineck, S.: Gesichter-Suchmaschine PimEyes bricht das Schweigen : Neuer Chef (2022) 0.04
    0.03821566 = product of:
      0.22929396 = sum of:
        0.22929396 = weight(_text_:suchmaschine in 418) [ClassicSimilarity], result of:
          0.22929396 = score(doc=418,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            1.0820342 = fieldWeight in 418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=418)
      0.16666667 = coord(1/6)
    
    Abstract
    PimEyes untergräbt die Anonymität von Menschen, deren Gesicht im Internet zu finden ist. Nach breiter Kritik hatte sich die polnische Suchmaschine auf die Seychellen abgesetzt. Jetzt hat PimEyes einen neuen Chef - und geht an die Öfffentlichkeit.
    Source
    https://netzpolitik.org/2022/neuer-chef-gesichter-suchmaschine-pimeyes-bricht-das-schweigen/?utm_source=pocket-newtab-global-de-DE
  19. Carrière, S.J.; Kazman, R.: Webquery : searching and visualising the Web through connectivity (1997) 0.04
    0.037831925 = product of:
      0.11349577 = sum of:
        0.0726894 = weight(_text_:ranking in 2674) [ClassicSimilarity], result of:
          0.0726894 = score(doc=2674,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 2674, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2674)
        0.040806368 = product of:
          0.061209552 = sum of:
            0.030743055 = weight(_text_:29 in 2674) [ClassicSimilarity], result of:
              0.030743055 = score(doc=2674,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 2674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2674)
            0.030466499 = weight(_text_:22 in 2674) [ClassicSimilarity], result of:
              0.030466499 = score(doc=2674,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 2674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2674)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    The WebQuery system offers a powerful new method for searching the Web based on connectivity and content. Examines links among the nodes returned in a keyword-based query. Rankes the nodes, giving the highest rank to the most highly connected nodes. By doing so, finds hot spots on the Web that contain information germane to a user's query. WebQuery not only ranks and filters the results of a Web query; it also extends the result set beyond what the search engine retrieves, by finding interesting sites that are highly connected to those sites returned by the original query. Even with WebQuery filering and ranking query results, the result set can be enormous. Explores techniques for visualizing the returned information and discusses the criteria for using each of the technique
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1257-1267
  20. Lewandowski, D.; Spree, U.: Ranking of Wikipedia articles in search engines revisited : fair ranking for reasonable quality? (2011) 0.04
    0.03779368 = product of:
      0.11338104 = sum of:
        0.10491812 = weight(_text_:ranking in 444) [ClassicSimilarity], result of:
          0.10491812 = score(doc=444,freq=6.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.51755315 = fieldWeight in 444, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=444)
        0.008462917 = product of:
          0.025388751 = sum of:
            0.025388751 = weight(_text_:22 in 444) [ClassicSimilarity], result of:
              0.025388751 = score(doc=444,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.19345059 = fieldWeight in 444, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=444)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    This paper aims to review the fiercely discussed question of whether the ranking of Wikipedia articles in search engines is justified by the quality of the articles. After an overview of current research on information quality in Wikipedia, a summary of the extended discussion on the quality of encyclopedic entries in general is given. On this basis, a heuristic method for evaluating Wikipedia entries is developed and applied to Wikipedia articles that scored highly in a search engine retrieval effectiveness test and compared with the relevance judgment of jurors. In all search engines tested, Wikipedia results are unanimously judged better by the jurors than other results on the corresponding results position. Relevance judgments often roughly correspond with the results from the heuristic evaluation. Cases in which high relevance judgments are not in accordance with the comparatively low score from the heuristic evaluation are interpreted as an indicator of a high degree of trust in Wikipedia. One of the systemic shortcomings of Wikipedia lies in its necessarily incoherent user model. A further tuning of the suggested criteria catalog, for instance, the different weighing of the supplied criteria, could serve as a starting point for a user model differentiated evaluation of Wikipedia articles. Approved methods of quality evaluation of reference works are applied to Wikipedia articles and integrated with the question of search engine evaluation.
    Date
    30. 9.2012 19:27:22

Years

Languages

  • d 317
  • e 170
  • nl 3
  • f 2
  • More… Less…

Types

  • a 400
  • m 54
  • el 40
  • s 8
  • x 8
  • p 2
  • r 2
  • More… Less…

Subjects

Classifications