Search (43 results, page 1 of 3)

  • × author_ss:"Lewandowski, D."
  • × type_ss:"a"
  1. Behnert, C.; Lewandowski, D.: ¬A framework for designing retrieval effectiveness studies of library information systems using human relevance assessments (2017) 0.02
    0.018491494 = product of:
      0.08629364 = sum of:
        0.02465703 = weight(_text_:web in 3700) [ClassicSimilarity], result of:
          0.02465703 = score(doc=3700,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25496176 = fieldWeight in 3700, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3700)
        0.014268933 = weight(_text_:information in 3700) [ClassicSimilarity], result of:
          0.014268933 = score(doc=3700,freq=16.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.27429342 = fieldWeight in 3700, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3700)
        0.047367673 = weight(_text_:retrieval in 3700) [ClassicSimilarity], result of:
          0.047367673 = score(doc=3700,freq=20.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.5284309 = fieldWeight in 3700, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3700)
      0.21428572 = coord(3/14)
    
    Abstract
    Purpose This paper demonstrates how to apply traditional information retrieval evaluation methods based on standards from the Text REtrieval Conference (TREC) and web search evaluation to all types of modern library information systems including online public access catalogs, discovery systems, and digital libraries that provide web search features to gather information from heterogeneous sources. Design/methodology/approach We apply conventional procedures from information retrieval evaluation to the library information system context considering the specific characteristics of modern library materials. Findings We introduce a framework consisting of five parts: (1) search queries, (2) search results, (3) assessors, (4) testing, and (5) data analysis. We show how to deal with comparability problems resulting from diverse document types, e.g., electronic articles vs. printed monographs and what issues need to be considered for retrieval tests in the library context. Practical implications The framework can be used as a guideline for conducting retrieval effectiveness studies in the library context. Originality/value Although a considerable amount of research has been done on information retrieval evaluation, and standards for conducting retrieval effectiveness studies do exist, to our knowledge this is the first attempt to provide a systematic framework for evaluating the retrieval effectiveness of twenty-first-century library information systems. We demonstrate which issues must be considered and what decisions must be made by researchers prior to a retrieval test.
  2. Lewandowski, D.: Web Information Retrieval (2005) 0.02
    0.017765228 = product of:
      0.0829044 = sum of:
        0.036903262 = weight(_text_:web in 4028) [ClassicSimilarity], result of:
          0.036903262 = score(doc=4028,freq=14.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.38159183 = fieldWeight in 4028, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.01210759 = weight(_text_:information in 4028) [ClassicSimilarity], result of:
          0.01210759 = score(doc=4028,freq=18.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23274568 = fieldWeight in 4028, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.033893548 = weight(_text_:retrieval in 4028) [ClassicSimilarity], result of:
          0.033893548 = score(doc=4028,freq=16.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.37811437 = fieldWeight in 4028, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.21428572 = coord(3/14)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
    Eine regelmäßige Übersicht neuer US-Patente und US-Patentanmeldungen im Bereich Information Retrieval bietet die News-Seite Resourceshelf (www.resourceshelf.com).
    Content
    Mit einer Tabelle, die eine Gegenüberstellung des WebRetrieval zum 'klassischen' Information Retrieval anbietet
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.5-12
  3. Lewandowski, D.: ¬A framework for evaluating the retrieval effectiveness of search engines (2012) 0.01
    0.012989305 = product of:
      0.060616758 = sum of:
        0.020922182 = weight(_text_:web in 106) [ClassicSimilarity], result of:
          0.020922182 = score(doc=106,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.21634221 = fieldWeight in 106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=106)
        0.00856136 = weight(_text_:information in 106) [ClassicSimilarity], result of:
          0.00856136 = score(doc=106,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16457605 = fieldWeight in 106, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=106)
        0.031133216 = weight(_text_:retrieval in 106) [ClassicSimilarity], result of:
          0.031133216 = score(doc=106,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.34732026 = fieldWeight in 106, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=106)
      0.21428572 = coord(3/14)
    
    Abstract
    This chapter presents a theoretical framework for evaluating next generation search engines. The author focuses on search engines whose results presentation is enriched with additional information and does not merely present the usual list of "10 blue links," that is, of ten links to results, accompanied by a short description. While Web search is used as an example here, the framework can easily be applied to search engines in any other area. The framework not only addresses the results presentation, but also takes into account an extension of the general design of retrieval effectiveness tests. The chapter examines the ways in which this design might influence the results of such studies and how a reliable test is best designed.
    Source
    Next generation search engines: advanced models for information retrieval. Eds.: C. Jouis, u.a
  4. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.01
    0.012237066 = product of:
      0.05710631 = sum of:
        0.027677448 = weight(_text_:web in 3183) [ClassicSimilarity], result of:
          0.027677448 = score(doc=3183,freq=14.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.28619388 = fieldWeight in 3183, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.007414355 = weight(_text_:information in 3183) [ClassicSimilarity], result of:
          0.007414355 = score(doc=3183,freq=12.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.14252704 = fieldWeight in 3183, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.022014506 = weight(_text_:retrieval in 3183) [ClassicSimilarity], result of:
          0.022014506 = score(doc=3183,freq=12.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.24559249 = fieldWeight in 3183, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.21428572 = coord(3/14)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
  5. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.01176508 = product of:
      0.054903705 = sum of:
        0.020922182 = weight(_text_:web in 5025) [ClassicSimilarity], result of:
          0.020922182 = score(doc=5025,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.21634221 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.00856136 = weight(_text_:information in 5025) [ClassicSimilarity], result of:
          0.00856136 = score(doc=5025,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16457605 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.025420163 = weight(_text_:retrieval in 5025) [ClassicSimilarity], result of:
          0.025420163 = score(doc=5025,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.2835858 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.21428572 = coord(3/14)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  6. Lewandowski, D.: Evaluating the retrieval effectiveness of web search engines using a representative query sample (2015) 0.01
    0.011227745 = product of:
      0.05239614 = sum of:
        0.020922182 = weight(_text_:web in 2157) [ClassicSimilarity], result of:
          0.020922182 = score(doc=2157,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.21634221 = fieldWeight in 2157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2157)
        0.0060537956 = weight(_text_:information in 2157) [ClassicSimilarity], result of:
          0.0060537956 = score(doc=2157,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.116372846 = fieldWeight in 2157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2157)
        0.025420163 = weight(_text_:retrieval in 2157) [ClassicSimilarity], result of:
          0.025420163 = score(doc=2157,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.2835858 = fieldWeight in 2157, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=2157)
      0.21428572 = coord(3/14)
    
    Abstract
    Search engine retrieval effectiveness studies are usually small scale, using only limited query samples. Furthermore, queries are selected by the researchers. We address these issues by taking a random representative sample of 1,000 informational and 1,000 navigational queries from a major German search engine and comparing Google's and Bing's results based on this sample. Jurors were found through crowdsourcing, and data were collected using specialized software, the Relevance Assessment Tool (RAT). We found that although Google outperforms Bing in both query types, the difference in the performance for informational queries was rather low. However, for navigational queries, Google found the correct answer in 95.3% of cases, whereas Bing only found the correct answer 76.6% of the time. We conclude that search engine performance on navigational queries is of great importance, because users in this case can clearly identify queries that have returned correct results. So, performance on this query type may contribute to explaining user satisfaction with search engines.
    Source
    Journal of the Association for Information Science and Technology. 66(2015) no.9, S.1763-1775
  7. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.01
    0.0112111475 = product of:
      0.039239015 = sum of:
        0.012328515 = weight(_text_:web in 3576) [ClassicSimilarity], result of:
          0.012328515 = score(doc=3576,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.12748088 = fieldWeight in 3576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
        0.013796352 = weight(_text_:bibliothek in 3576) [ClassicSimilarity], result of:
          0.013796352 = score(doc=3576,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.113400325 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
        0.0025224148 = weight(_text_:information in 3576) [ClassicSimilarity], result of:
          0.0025224148 = score(doc=3576,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.048488684 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
        0.010591734 = weight(_text_:retrieval in 3576) [ClassicSimilarity], result of:
          0.010591734 = score(doc=3576,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.11816074 = fieldWeight in 3576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.2857143 = coord(4/14)
    
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
  8. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.01
    0.010686181 = product of:
      0.07480326 = sum of:
        0.03856498 = weight(_text_:wide in 378) [ClassicSimilarity], result of:
          0.03856498 = score(doc=378,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.29372054 = fieldWeight in 378, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
        0.036238287 = weight(_text_:web in 378) [ClassicSimilarity], result of:
          0.036238287 = score(doc=378,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.37471575 = fieldWeight in 378, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
      0.14285715 = coord(2/14)
    
    Abstract
    Suchmaschinen bilden den bedeutendsten Zugang zu den im World Wide Web verfügbaren Informationen und haben andere Zugänge zu diesem Informationsbestand (wie etwa Internetverzeichnisse) weitgehend verdrängt. Der Suchmaschinenmarkt ist stark konzentriert; nur wenige Anbieter mit eigener Technologie bieten selbst Endnutzerlösungen an und lizenzieren ihre Technologie an die bekannten Web-Portale wie AOL oder T-Online. Die im vorliegenden Kapitel dargestellten Kennzahlen zur Messung der Qualität von Suchmaschinen basieren einerseits auf Erkenntnissen über den State of the Art der Suchmaschinentechnologie, andererseits stehen sie im Kontext eines umfassenderen Modells der Qualitätsmessung für Web-Suchmaschinen. Die besondere Bedeutung von Erkenntnissen über die Qualität der bestehenden Suchmaschinen ergibt sich einerseits aus ihrer Bedeutung für die Weiterentwicklung der Suchmaschinentechnologie. Qualitätsuntersuchungen geben Hinweise auf die Schwachstellen der Suchmaschinen im Allgemeinen und die ihrer Ranking-Algorithmen im Besonderen. Letztere sind als zentral für die Ergebnisqualität anzusehen und bilden den >Kern< der technologischen Leistungsfähigkeit einer jeden Suchmaschine.
  9. Lewandowski, D.: Suchmaschinen (2023) 0.01
    0.009736202 = product of:
      0.06815341 = sum of:
        0.03856498 = weight(_text_:wide in 793) [ClassicSimilarity], result of:
          0.03856498 = score(doc=793,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.29372054 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.029588435 = weight(_text_:web in 793) [ClassicSimilarity], result of:
          0.029588435 = score(doc=793,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
      0.14285715 = coord(2/14)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
  10. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.01
    0.008192899 = product of:
      0.057350285 = sum of:
        0.052305456 = weight(_text_:web in 2580) [ClassicSimilarity], result of:
          0.052305456 = score(doc=2580,freq=18.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.5408555 = fieldWeight in 2580, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2580)
        0.0050448296 = weight(_text_:information in 2580) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=2580,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 2580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2580)
      0.14285715 = coord(2/14)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the deep web. In addition, we bring a new concept into the discussion, the academic invisible web (AIW). We define the academic invisible web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the invisible web is central to scientific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estimation based on informetric laws. Literature review on approaches for uncovering information from the invisible web. Findings: Bergman's size estimate of the invisible web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the academic invisible web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the academic invisible web.
  11. Lewandowski, D.: ¬The retrieval effectiveness of web search engines : considering results descriptions (2008) 0.01
    0.007228768 = product of:
      0.050601374 = sum of:
        0.02465703 = weight(_text_:web in 2345) [ClassicSimilarity], result of:
          0.02465703 = score(doc=2345,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25496176 = fieldWeight in 2345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2345)
        0.025944345 = weight(_text_:retrieval in 2345) [ClassicSimilarity], result of:
          0.025944345 = score(doc=2345,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.28943354 = fieldWeight in 2345, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2345)
      0.14285715 = coord(2/14)
    
    Abstract
    Purpose - The purpose of this paper is to compare five major web search engines (Google, Yahoo, MSN, Ask.com, and Seekport) for their retrieval effectiveness, taking into account not only the results, but also the results descriptions. Design/methodology/approach - The study uses real-life queries. Results are made anonymous and are randomized. Results are judged by the persons posing the original queries. Findings - The two major search engines, Google and Yahoo, perform best, and there are no significant differences between them. Google delivers significantly more relevant result descriptions than any other search engine. This could be one reason for users perceiving this engine as superior. Research limitations/implications - The study is based on a user model where the user takes into account a certain amount of results rather systematically. This may not be the case in real life. Practical implications - The paper implies that search engines should focus on relevant descriptions. Searchers are advised to use other search engines in addition to Google. Originality/value - This is the first major study comparing results and descriptions systematically and proposes new retrieval measures to take into account results descriptions.
  12. Lewandowski, D.: Wie können sich Bibliotheken gegenüber Wissenschaftssuchmaschinen positionieren? (2007) 0.01
    0.0067889965 = product of:
      0.047522973 = sum of:
        0.039451245 = weight(_text_:web in 5112) [ClassicSimilarity], result of:
          0.039451245 = score(doc=5112,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.4079388 = fieldWeight in 5112, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=5112)
        0.008071727 = weight(_text_:information in 5112) [ClassicSimilarity], result of:
          0.008071727 = score(doc=5112,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1551638 = fieldWeight in 5112, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5112)
      0.14285715 = coord(2/14)
    
    Abstract
    Dieser Aufsatz beschreibt die Probleme bei der Erschließung des wissenschaftlichen Web (Academic Invisible Web), zeigt Beispiele kommerzieller Wissenschaftssuchmaschinen unter der Leitfrage, was Bibliotheken von diesen lernen können und stellt schließlich Vor- und Nachteile der Wissenschaftssuchmaschinen denen der bisherigen Bibliotheksangebote gegenüber. Daraus werden Empfehlungen abgeleitet, wie sich Bibliotheken mit umfassenden Suchlösungen gegenüber den Wissenschaftssuchmaschinen positionieren können.
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  13. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.01
    0.006527507 = product of:
      0.04569255 = sum of:
        0.038629785 = weight(_text_:bibliothek in 284) [ClassicSimilarity], result of:
          0.038629785 = score(doc=284,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.31752092 = fieldWeight in 284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.0070627616 = weight(_text_:information in 284) [ClassicSimilarity], result of:
          0.0070627616 = score(doc=284,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13576832 = fieldWeight in 284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.14285715 = coord(2/14)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
  14. Lewandowski, D.; Spree, U.: Ranking of Wikipedia articles in search engines revisited : fair ranking for reasonable quality? (2011) 0.01
    0.0061724912 = product of:
      0.028804958 = sum of:
        0.0071344664 = weight(_text_:information in 444) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=444,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 444, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=444)
        0.014978974 = weight(_text_:retrieval in 444) [ClassicSimilarity], result of:
          0.014978974 = score(doc=444,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.16710453 = fieldWeight in 444, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=444)
        0.0066915164 = product of:
          0.020074548 = sum of:
            0.020074548 = weight(_text_:22 in 444) [ClassicSimilarity], result of:
              0.020074548 = score(doc=444,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.19345059 = fieldWeight in 444, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=444)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    This paper aims to review the fiercely discussed question of whether the ranking of Wikipedia articles in search engines is justified by the quality of the articles. After an overview of current research on information quality in Wikipedia, a summary of the extended discussion on the quality of encyclopedic entries in general is given. On this basis, a heuristic method for evaluating Wikipedia entries is developed and applied to Wikipedia articles that scored highly in a search engine retrieval effectiveness test and compared with the relevance judgment of jurors. In all search engines tested, Wikipedia results are unanimously judged better by the jurors than other results on the corresponding results position. Relevance judgments often roughly correspond with the results from the heuristic evaluation. Cases in which high relevance judgments are not in accordance with the comparatively low score from the heuristic evaluation are interpreted as an indicator of a high degree of trust in Wikipedia. One of the systemic shortcomings of Wikipedia lies in its necessarily incoherent user model. A further tuning of the suggested criteria catalog, for instance, the different weighing of the supplied criteria, could serve as a starting point for a user model differentiated evaluation of Wikipedia articles. Approved methods of quality evaluation of reference works are applied to Wikipedia articles and integrated with the question of search engine evaluation.
    Date
    30. 9.2012 19:27:22
    Source
    Journal of the American Society for Information Science and Technology. 62(2011) no.1, S.117-132
  15. Lewandowski, D.: Perspektiven eines Open Web Index (2016) 0.01
    0.0059403726 = product of:
      0.041582607 = sum of:
        0.034519844 = weight(_text_:web in 2935) [ClassicSimilarity], result of:
          0.034519844 = score(doc=2935,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.35694647 = fieldWeight in 2935, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2935)
        0.0070627616 = weight(_text_:information in 2935) [ClassicSimilarity], result of:
          0.0070627616 = score(doc=2935,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13576832 = fieldWeight in 2935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2935)
      0.14285715 = coord(2/14)
    
    Abstract
    Der Suchmaschinenmarkt wird seit vielen Jahren von nur einer einzigen Suchmaschine, Google, dominiert. Es wurde mittlerweile erkannt, dass diese Situation nicht wünschenswert ist. Wir sprechen nun über mögliche Lösungen. Der Artikel diskutiert unterschiedliche Lösungsansätze und fokussiert dabei auf die Idee einen Offenen Web-Index (OWI), der als öffentliche Infrastruktur verfügbar gemacht werden soll. Die Grundidee ist die Trennung von Datenbestand (Index) und darauf aufsetzenden Diensten, welche in großer Zahl in privater Initiative betrieben werden können. Es geht also darum, die Basis für Vielfalt zu schaffen.
    Source
    Information - Wissenschaft und Praxis. 67(2016) H.1, S.15-21
  16. Lewandowski, D.: ¬The retrieval effectiveness of search engines on navigational queries (2011) 0.01
    0.005516946 = product of:
      0.03861862 = sum of:
        0.017435152 = weight(_text_:web in 4537) [ClassicSimilarity], result of:
          0.017435152 = score(doc=4537,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.18028519 = fieldWeight in 4537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4537)
        0.021183468 = weight(_text_:retrieval in 4537) [ClassicSimilarity], result of:
          0.021183468 = score(doc=4537,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.23632148 = fieldWeight in 4537, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4537)
      0.14285715 = coord(2/14)
    
    Abstract
    Purpose - The purpose of this paper is to test major web search engines on their performance on navigational queries, i.e. searches for homepages. Design/methodology/approach - In total, 100 user queries are posed to six search engines (Google, Yahoo!, MSN, Ask, Seekport, and Exalead). Users described the desired pages, and the results position of these was recorded. Measured success and mean reciprocal rank are calculated. Findings - The performance of the major search engines Google, Yahoo!, and MSN was found to be the best, with around 90 per cent of queries answered correctly. Ask and Exalead performed worse but received good scores as well. Research limitations/implications - All queries were in German, and the German-language interfaces of the search engines were used. Therefore, the results are only valid for German queries. Practical implications - When designing a search engine to compete with the major search engines, care should be taken on the performance on navigational queries. Users can be influenced easily in their quality ratings of search engines based on this performance. Originality/value - This study systematically compares the major search engines on navigational queries and compares the findings with studies on the retrieval effectiveness of the engines on informational queries.
  17. Lewandowski, D.: Query understanding (2011) 0.01
    0.005514668 = product of:
      0.038602673 = sum of:
        0.027896244 = weight(_text_:web in 344) [ClassicSimilarity], result of:
          0.027896244 = score(doc=344,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.2884563 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.010706427 = product of:
          0.032119278 = sum of:
            0.032119278 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.032119278 = score(doc=344,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Date
    18. 9.2018 18:22:18
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  18. Sundin, O.; Lewandowski, D.; Haider, J.: Whose relevance? : Web search engines as multisided relevance machines (2022) 0.01
    0.005234611 = product of:
      0.036642276 = sum of:
        0.024409214 = weight(_text_:web in 542) [ClassicSimilarity], result of:
          0.024409214 = score(doc=542,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25239927 = fieldWeight in 542, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=542)
        0.012233062 = weight(_text_:information in 542) [ClassicSimilarity], result of:
          0.012233062 = score(doc=542,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23515764 = fieldWeight in 542, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=542)
      0.14285715 = coord(2/14)
    
    Abstract
    This opinion piece takes Google's response to the so-called COVID-19 infodemic, as a starting point to argue for the need to consider societal relevance as a complement to other types of relevance. The authors maintain that if information science wants to be a discipline at the forefront of research on relevance, search engines, and their use, then the information science research community needs to address itself to the challenges and conditions that commercial search engines create in. The article concludes with a tentative list of related research topics.
    Source
    Journal of the Association for Information Science and Technology. 73(2022) no.5, S.637-642
  19. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.0050917473 = product of:
      0.03564223 = sum of:
        0.029588435 = weight(_text_:web in 5026) [ClassicSimilarity], result of:
          0.029588435 = score(doc=5026,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 5026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
        0.0060537956 = weight(_text_:information in 5026) [ClassicSimilarity], result of:
          0.0060537956 = score(doc=5026,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.116372846 = fieldWeight in 5026, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
      0.14285715 = coord(2/14)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.46-56
  20. Schaer, P.; Mayr, P.; Sünkler, S.; Lewandowski, D.: How relevant is the long tail? : a relevance assessment study on million short (2016) 0.01
    0.0050347717 = product of:
      0.0352434 = sum of:
        0.03019857 = weight(_text_:web in 3144) [ClassicSimilarity], result of:
          0.03019857 = score(doc=3144,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3122631 = fieldWeight in 3144, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3144)
        0.0050448296 = weight(_text_:information in 3144) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=3144,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 3144, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3144)
      0.14285715 = coord(2/14)
    
    Abstract
    Users of web search engines are known to mostly focus on the top ranked results of the search engine result page. While many studies support this well known information seeking pattern only few studies concentrate on the question what users are missing by neglecting lower ranked results. To learn more about the relevance distributions in the so-called long tail we conducted a relevance assessment study with the Million Short long-tail web search engine. While we see a clear difference in the content between the head and the tail of the search engine result list we see no statistical significant differences in the binary relevance judgments and weak significant differences when using graded relevance. The tail contains different but still valuable results. We argue that the long tail can be a rich source for the diversification of web search engine result lists but it needs more evaluation to clearly describe the differences.