Search (50 results, page 1 of 3)

  • × author_ss:"Lewandowski, D."
  1. Lewandowski, D.: Evaluating the retrieval effectiveness of web search engines using a representative query sample (2015) 0.03
    0.03363397 = product of:
      0.10090191 = sum of:
        0.010546046 = weight(_text_:in in 2157) [ClassicSimilarity], result of:
          0.010546046 = score(doc=2157,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 2157, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2157)
        0.090355866 = weight(_text_:great in 2157) [ClassicSimilarity], result of:
          0.090355866 = score(doc=2157,freq=2.0), product of:
            0.24206476 = queryWeight, product of:
              5.6307793 = idf(docFreq=430, maxDocs=44218)
              0.042989567 = queryNorm
            0.37327147 = fieldWeight in 2157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6307793 = idf(docFreq=430, maxDocs=44218)
              0.046875 = fieldNorm(doc=2157)
      0.33333334 = coord(2/6)
    
    Abstract
    Search engine retrieval effectiveness studies are usually small scale, using only limited query samples. Furthermore, queries are selected by the researchers. We address these issues by taking a random representative sample of 1,000 informational and 1,000 navigational queries from a major German search engine and comparing Google's and Bing's results based on this sample. Jurors were found through crowdsourcing, and data were collected using specialized software, the Relevance Assessment Tool (RAT). We found that although Google outperforms Bing in both query types, the difference in the performance for informational queries was rather low. However, for navigational queries, Google found the correct answer in 95.3% of cases, whereas Bing only found the correct answer 76.6% of the time. We conclude that search engine performance on navigational queries is of great importance, because users in this case can clearly identify queries that have returned correct results. So, performance on this query type may contribute to explaining user satisfaction with search engines.
  2. Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004) 0.01
    0.011080294 = product of:
      0.03324088 = sum of:
        0.009942909 = weight(_text_:in in 2314) [ClassicSimilarity], result of:
          0.009942909 = score(doc=2314,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 2314, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2314)
        0.023297971 = product of:
          0.046595942 = sum of:
            0.046595942 = weight(_text_:22 in 2314) [ClassicSimilarity], result of:
              0.046595942 = score(doc=2314,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.30952093 = fieldWeight in 2314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2314)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Artikel stellt die erweiterten Suchmöglichkeiten in den wichtigsten Suchmaschinen vor. Dabei handelt es sich um Google, Alta Vista, Hotbot (Inktomi), Teoma und Fireball. Die Oualität von Suchmaschinen wird in der Regel durch Retrievaltests verglichen. Vordem Hintergrund professioneller Ansprüche an die Recherchefähigkeiten der Suchmaschinen müssen aber zusätzlich auch deren Abfragemöglichkeiten betrachtet werden. Nur ausgereifte Abfragesprachen erlauben komplexe Suchanfragen, wie sie im professionellen Umfeld gestellt werden.
    Date
    28.11.2004 13:11:22
  3. Lewandowski, D.: Query understanding (2011) 0.01
    0.011080294 = product of:
      0.03324088 = sum of:
        0.009942909 = weight(_text_:in in 344) [ClassicSimilarity], result of:
          0.009942909 = score(doc=344,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.023297971 = product of:
          0.046595942 = sum of:
            0.046595942 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.046595942 = score(doc=344,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
    Date
    18. 9.2018 18:22:18
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  4. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.01
    0.010109557 = product of:
      0.030328669 = sum of:
        0.007030698 = weight(_text_:in in 997) [ClassicSimilarity], result of:
          0.007030698 = score(doc=997,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.120230645 = fieldWeight in 997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=997)
        0.023297971 = product of:
          0.046595942 = sum of:
            0.046595942 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.046595942 = score(doc=997,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    "Alle benutzen Google". So läßt sich kurz und prägnant die Entwicklung im Bereich der WWW-Suche in der letzten Zeit auf den Punkt bringen. Durch gute Suchergebnisse und eine schlichte, ausgesprochen gut bedienbare Benutzerschnittstelle hat sich Google als die Suchmaschine für alle Zwecke etabliert. Im Zuge dieser Entwicklung fanden größere Veränderungen auf dem Markt statt: Einige Bewerber mussten ihre Suchwerkzeuge aufgeben, neue Firmen haben dafür die Herausforderung angenommen, dem Benutzer noch bessere Ergebnisse oder wenigsten innovative Features zu bieten
    Date
    29. 9.2002 18:49:22
  5. Lewandowski, D.; Spree, U.: Ranking of Wikipedia articles in search engines revisited : fair ranking for reasonable quality? (2011) 0.01
    0.009485624 = product of:
      0.02845687 = sum of:
        0.013895638 = weight(_text_:in in 444) [ClassicSimilarity], result of:
          0.013895638 = score(doc=444,freq=20.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2376267 = fieldWeight in 444, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=444)
        0.014561232 = product of:
          0.029122464 = sum of:
            0.029122464 = weight(_text_:22 in 444) [ClassicSimilarity], result of:
              0.029122464 = score(doc=444,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.19345059 = fieldWeight in 444, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=444)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    This paper aims to review the fiercely discussed question of whether the ranking of Wikipedia articles in search engines is justified by the quality of the articles. After an overview of current research on information quality in Wikipedia, a summary of the extended discussion on the quality of encyclopedic entries in general is given. On this basis, a heuristic method for evaluating Wikipedia entries is developed and applied to Wikipedia articles that scored highly in a search engine retrieval effectiveness test and compared with the relevance judgment of jurors. In all search engines tested, Wikipedia results are unanimously judged better by the jurors than other results on the corresponding results position. Relevance judgments often roughly correspond with the results from the heuristic evaluation. Cases in which high relevance judgments are not in accordance with the comparatively low score from the heuristic evaluation are interpreted as an indicator of a high degree of trust in Wikipedia. One of the systemic shortcomings of Wikipedia lies in its necessarily incoherent user model. A further tuning of the suggested criteria catalog, for instance, the different weighing of the supplied criteria, could serve as a starting point for a user model differentiated evaluation of Wikipedia articles. Approved methods of quality evaluation of reference works are applied to Wikipedia articles and integrated with the question of search engine evaluation.
    Date
    30. 9.2012 19:27:22
  6. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.01
    0.00831022 = product of:
      0.02493066 = sum of:
        0.007457182 = weight(_text_:in in 1491) [ClassicSimilarity], result of:
          0.007457182 = score(doc=1491,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.12752387 = fieldWeight in 1491, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.017473478 = product of:
          0.034946956 = sum of:
            0.034946956 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.034946956 = score(doc=1491,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wenn man die Recherche in Suchmaschinen als Vorbereitung einer Entscheidung betrachtet, kommt diesen Suchwerkzeugen aufgrund der Masse der an sie ge­stellten Anfragen eine nicht zu unterschätzende Bedeutung zu. Macht haben Suchmaschinen vor allem dadurch, dass sie entscheiden, was ein Nutzer zu seiner Suchanfrage zu sehen bekommt, verstärkt durch die ­Entscheidung, an welcher Stelle und in welcher Darstellungsform die Ergebnisse angezeigt werden. Im Suchprozess gibt es zahlreiche Stellen, an denen das Design der Suchmaschine die Entscheidung des Nutzers für oder gegen bestimmte Ergebnisse beeinflusst. Zusammen mit der externen Beeinflussung der Suchergebnisse durch sog. Suchmaschinenoptimierung ergibt sich eine Steuerung der Nutzer hin zu bestimmten Ergebnissen und ­Ergebnisformen. Der Artikel zeigt, wo Suchmaschinen Einfluss auf unsere Entscheidungsvorbereitung bzw. Entscheidungsfindung nehmen, an welchen Punkten dem durch einen bewussteren Umgang mit den Suchmaschinen entgegengewirkt werden kann, aber auch wo die Grenzen der eigenen Entscheidungsmöglichkeiten liegen.
    Date
    22. 9.2014 18:54:11
  7. Lewandowski, D.; Sünkler, S.: What does Google recommend when you want to compare insurance offerings? (2019) 0.01
    0.007783202 = product of:
      0.023349606 = sum of:
        0.008788372 = weight(_text_:in in 5288) [ClassicSimilarity], result of:
          0.008788372 = score(doc=5288,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.15028831 = fieldWeight in 5288, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5288)
        0.014561232 = product of:
          0.029122464 = sum of:
            0.029122464 = weight(_text_:22 in 5288) [ClassicSimilarity], result of:
              0.029122464 = score(doc=5288,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.19345059 = fieldWeight in 5288, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5288)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Purpose The purpose of this paper is to describe a new method to improve the analysis of search engine results by considering the provider level as well as the domain level. This approach is tested by conducting a study using queries on the topic of insurance comparisons. Design/methodology/approach The authors conducted an empirical study that analyses the results of search queries aimed at comparing insurance companies. The authors used a self-developed software system that automatically queries commercial search engines and automatically extracts the content of the returned result pages for further data analysis. The data analysis was carried out using the KNIME Analytics Platform. Findings Google's top search results are served by only a few providers that frequently appear in these results. The authors show that some providers operate several domains on the same topic and that these domains appear for the same queries in the result lists. Research limitations/implications The authors demonstrate the feasibility of this approach and draw conclusions for further investigations from the empirical study. However, the study is a limited use case based on a limited number of search queries. Originality/value The proposed method allows large-scale analysis of the composition of the top results from commercial search engines. It allows using valid empirical data to determine what users actually see on the search engine result pages.
    Date
    20. 1.2015 18:30:22
    Footnote
    Beitrag in einem Special Issue: Information Science in the German-speaking Countries
  8. Lewandowski, D.: Neue Themen der Informationswissenschaft sind nicht zu erkennen (2004) 0.00
    0.0020714393 = product of:
      0.012428636 = sum of:
        0.012428636 = weight(_text_:in in 3292) [ClassicSimilarity], result of:
          0.012428636 = score(doc=3292,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21253976 = fieldWeight in 3292, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3292)
      0.16666667 = coord(1/6)
    
    Abstract
    Anfang Oktober fand in Chur in der Schweiz das 9. Internationale Symposium für Informationswissenschaft (kurz: ISI) statt. 180 Teilnehmer waren angereist, um etwa 35 Vorträge anzuhören, zahlreiche Posterpräsentationen zu besichtigen und natürlich auch, um Kontakte mit den anderen Teilnehmern zu knüpfen.
  9. Lewandowski, D.: Suchmaschinen als Konkurrenten der Bibliothekskataloge : Wie Bibliotheken ihre Angebote durch Suchmaschinentechnologie attraktiver und durch Öffnung für die allgemeinen Suchmaschinen populärer machen können (2006) 0.00
    0.0020506203 = product of:
      0.012303721 = sum of:
        0.012303721 = weight(_text_:in in 3449) [ClassicSimilarity], result of:
          0.012303721 = score(doc=3449,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21040362 = fieldWeight in 3449, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
      0.16666667 = coord(1/6)
    
    Abstract
    Die elektronischen Bibliotheksangebote konkurrieren zunehmend mit den allgemeinen Websuchmaschinen und spezialisierten Wissenschaftssuchmaschinen um die Gunst der Nutzer. Dieser Aufsatz gibt einen kritischen Überblick über die bisherigen Initiativen zum Einsatz von Suchmaschinentechnologie im Bibliothekskontext sowie zur Sichtbarmachung von Bibliotheksinhalten in allgemeinen Suchmaschinen. Darauf aufbauend wird dargestellt, wie Bibliotheksangebote tatsächlich für den Nutzer attraktiver werden können und ihre Sichtbarkeit in Suchmaschinen erhöht werden kann. Grundlegend muss der OPAC zum zentralen Nachweisinstrument für alle in der jeweiligen Bibliothek verfügbaren Informationen gemacht werden. Außerdem müssen die Katalogdaten deutlich angereichert werden, um die Stärken der Suchmaschinentechnologie auch tatsächlich nutzen zu können. Auf der Basis dieser erweiterten Textmenge kann schließlich auch leicht die Auffindbarkeit in allgemeinen Suchmaschinen verbessert werden.
  10. Lewandowski, D.: Aktualität als erfolgskritischer Faktor bei Suchmaschinen (2006) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 1816) [ClassicSimilarity], result of:
          0.012177527 = score(doc=1816,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 1816, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1816)
      0.16666667 = coord(1/6)
    
    Abstract
    Aktualitätsfaktoren spielen bei Suchmaschinen auf unterschiedlichen Ebenen eine Rolle: Einerseits geht es um die Aktualität der Datenbestände (Index-Aktualität), andererseits um Aktualitätsfaktoren in der Recherche, und schließlich um Aktualitätsfaktoren im Banking. Zu allen drei Bereichen werden die wesentlichen Arbeiten diskutiert. Der Artikel gibt damit einen Überblick über die Vielschichtigkeit des Aktualitätsthemas und zeigt, dass Aktualität für Suchmaschinen ein erfolgskritischer Faktor ist und in Zukunft noch in verstärktem Maß werden dürfte.
  11. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.00
    0.0017758894 = product of:
      0.010655336 = sum of:
        0.010655336 = weight(_text_:in in 284) [ClassicSimilarity], result of:
          0.010655336 = score(doc=284,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.1822149 = fieldWeight in 284, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.16666667 = coord(1/6)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
  12. Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023) 0.00
    0.0017758894 = product of:
      0.010655336 = sum of:
        0.010655336 = weight(_text_:in in 777) [ClassicSimilarity], result of:
          0.010655336 = score(doc=777,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.1822149 = fieldWeight in 777, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=777)
      0.16666667 = coord(1/6)
    
    Abstract
    Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
  13. Lewandowski, D.: Web Information Retrieval (2005) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 4028) [ClassicSimilarity], result of:
          0.010546046 = score(doc=4028,freq=18.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 4028, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.16666667 = coord(1/6)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
    Footnote
    Beitrag in einem Heft mit dem Themenschwerpunkt "Suchmaschinen"
  14. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 3635) [ClassicSimilarity], result of:
          0.010546046 = score(doc=3635,freq=72.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 3635, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
      0.16666667 = coord(1/6)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
    Weitere Rez. in: Mitt. VÖB 58(2005) H.4, S.116-119 (O. Oberhauser)
  15. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.00
    0.0017002847 = product of:
      0.0102017075 = sum of:
        0.0102017075 = weight(_text_:in in 3378) [ClassicSimilarity], result of:
          0.0102017075 = score(doc=3378,freq=22.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17445749 = fieldWeight in 3378, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3378)
      0.16666667 = coord(1/6)
    
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
  16. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.00
    0.0016571515 = product of:
      0.009942909 = sum of:
        0.009942909 = weight(_text_:in in 349) [ClassicSimilarity], result of:
          0.009942909 = score(doc=349,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 349, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Evaluierung von Suchmaschinen ist von hoher Bedeutung, sowohl wenn es um die Überprüfung der Leistungsfähigkeit selbst entwickelter Systeme geht als auch, um die Qualität der bekannten Suchdienste untereinander zu vergleichen. In diesem Kapitel wird der Standardaufbau von Tests zur Messung der Retrievaleffektivität von Suchmaschinen beschrieben, um darauf aufbauend systematisch die Grenzen dieser Tests aufzuzeigen und erste Lösungsmöglichkeiten zu diskutieren. Es werden Hinweise für die Praxis gegeben, wie sich Retrievaltests mit vertretbarem Aufwand gestalten lassen, die trotzdem zu verwertbaren Ergebnissen führen.
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  17. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0016376167 = product of:
      0.0098257 = sum of:
        0.0098257 = weight(_text_:in in 3752) [ClassicSimilarity], result of:
          0.0098257 = score(doc=3752,freq=10.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.16802745 = fieldWeight in 3752, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3752)
      0.16666667 = coord(1/6)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the Deep Web. In addition, we bring a new concept into the discussion, the Academic Invisible Web (AIW). We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the Invisible Web is central to scien-tific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estima-tion based on informetric laws. Literature review on approaches for uncovering information from the Invisible Web. Findings: Bergman's size estimate of the Invisible Web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the Academic Invisible Web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the Academic In-visible Web.
    Content
    Bezug zu: Bergman, M.K.: The Deep Web: surfacing hidden value. In: Journal of Electronic Publishing. 7(2001) no.1, S.xxx-xxx. [Vgl. unter: http://www.press.umich.edu/jep/07-01/bergman.html].
  18. Lewandowski, D.: How can library materials be ranked in the OPAC? (2009) 0.00
    0.0016376167 = product of:
      0.0098257 = sum of:
        0.0098257 = weight(_text_:in in 2810) [ClassicSimilarity], result of:
          0.0098257 = score(doc=2810,freq=10.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.16802745 = fieldWeight in 2810, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2810)
      0.16666667 = coord(1/6)
    
    Abstract
    Some Online Public Access Catalogues offer a ranking component. However, ranking there is merely text-based and is doomed to fail due to limited text in bibliographic data. The main assumption for the talk is that we are in a situation where the appropriate ranking factors for OPACs should be defined, while the implementation is no major problem. We must define what we want, and not so much focus on the technical work. Some deep thinking is necessary on the "perfect results set" and how we can achieve it through ranking. The talk presents a set of potential ranking factors and clustering possibilities for further discussion. A look at commercial Web search engines could provide us with ideas how ranking can be improved with additional factors. Search engines are way beyond pure text-based ranking and apply ranking factors in the groups like popularity, freshness, personalisation, etc. The talk describes the main factors used in search engines and how derivatives of these could be used for libraries' purposes. The goal of ranking is to provide the user with the best-suitable results on top of the results list. How can this goal be achieved with the library catalogue and also concerning the library's different collections and databases? The assumption is that ranking of such materials is a complex problem and is yet nowhere near solved. Libraries should focus on ranking to improve user experience.
  19. Lewandowski, D.: Suchmaschinen verstehen : 3. vollständig überarbeitete und erweiterte Aufl. (2021) 0.00
    0.0016376167 = product of:
      0.0098257 = sum of:
        0.0098257 = weight(_text_:in in 4016) [ClassicSimilarity], result of:
          0.0098257 = score(doc=4016,freq=10.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.16802745 = fieldWeight in 4016, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
      0.16666667 = coord(1/6)
    
    Abstract
    Suchmaschinen dienen heute selbstverständlich als Werkzeuge, um Informationen zu recherchieren. Doch wie funktionieren diese genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Rankingverfahren und Nutzerverhalten werden dargestellt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare sowie Online-Marketing-Verantwortliche. Für die dritte Auflage wurde der Text vollständig überarbeitet sowie alle Statistiken und Quellen auf den neuesten Stand gebracht.
    Content
    Vgl. die Anzeige in Open Password Nr.959 vom 11.08.2021: Einer der wenigen "Bestseller" der Informationsbranche, der nunmehr in die dritte Auflage geht. Das Buch wurde in Details überarbeitet sowie aktualisiert. Dazu wurden die Literaturangaben "vielfach erheblich" ergänzt. Dazu der Verfasser Dirk Lewandowski in seinem Vorwort: "Ich habe aber darauf geachtet, dass dieses Buch nicht das Schicksal vieler einführender Werke widerfährt, nämlich, dass es immer weiter anwächst, letztlich aber keine gut lesbare Einführung mehr darstellt." Veränderungen ergaben sich zum Teil, weil "ich durch die vielen Rückmeldungen auch zahlreiche Hinweise bekommen (habe), welche Teile noch verständlicher gemacht werden sollten, wo ergänzt, und wo gestrichen werden sollte."
  20. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.00
    0.0016211577 = product of:
      0.009726946 = sum of:
        0.009726946 = weight(_text_:in in 3438) [ClassicSimilarity], result of:
          0.009726946 = score(doc=3438,freq=20.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.16633868 = fieldWeight in 3438, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
      0.16666667 = coord(1/6)
    
    Abstract
    Mittlerweile bieten alle größeren Suchmaschinen ein eigenes Suchwerkzeug für den Desktop an, mit dem sich Dateien, E-Mails, Kontakte usw. durchsuchen lassen. Die Tools werden kostenlos angeboten. Sie zeigen, dass die Suchmaschinen ihre Dienste in Zukunft weiter in das direkte Umfeld des Benutzers integrieren wollen.
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Wichtig bei einer Entscheidung für ein bestimmtes Suchtool ist der den individuellen Bedürfnissen angepasste Funktionsumfang. Neben der Dateisuche, die alle Programme für die gängigen Formate bewerkstelligen, sollte beispielsweise geprüft werden, welche E-Mail-Formate unterstützt werden. Am wenigsten Probleme hat man wie auch sonst, wenn man nur die Standardsoftware von Microsoft verwendet - deren Dateiformate werden von allen Suchtools unterstützt. Verwendet man aber Programme mit "exotischeren" Dateiformaten oder möchte man beispielsweise Protokolle aus dem Instant Messaging durchsuchen, so wird die Auswahl der Programme deutlich eingeschränkt. Vor der Installation eines Programms sollte man also genau prüfen, ob es den eigenen Anforderungen genügt. Hilfreich ist die umfassende und aktuelle Übersicht des "Suchberaters" Goebel Group unter http://www.goebelgroup.com/desktopmatrix.htm. In dieser Übersicht sind die Preise der einzelnen Tools angegeben. Denn vor allem die von den großen Web-Suchmaschinen angebotenen Werkzeuge sind kostenlos. Mächtigere Programme kosten Geld - auch das sollte man im Umfeld der von den Suchmaschinen repräsentierten Kostenlos-Kultur nicht vergessen. Letztlich sollte der individuelle Nutzen für die Wahl entscheidend sein."