Search (57 results, page 1 of 3)

  • × author_ss:"Lewandowski, D."
  1. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.06
    0.06332272 = product of:
      0.12664545 = sum of:
        0.052850362 = weight(_text_:von in 5023) [ClassicSimilarity], result of:
          0.052850362 = score(doc=5023,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.41267726 = fieldWeight in 5023, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 5023) [ClassicSimilarity], result of:
              0.004935794 = score(doc=5023,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
            0.105756834 = weight(_text_:z in 5023) [ClassicSimilarity], result of:
              0.105756834 = score(doc=5023,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
    Type
    a
  2. Lewandowski, D.; Womser-Hacker, C.: Information seeking behaviour (2023) 0.05
    0.050110135 = product of:
      0.10022027 = sum of:
        0.026425181 = weight(_text_:von in 816) [ClassicSimilarity], result of:
          0.026425181 = score(doc=816,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 816, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=816)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 816) [ClassicSimilarity], result of:
              0.004935794 = score(doc=816,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=816)
            0.105756834 = weight(_text_:z in 816) [ClassicSimilarity], result of:
              0.105756834 = score(doc=816,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=816)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Vielzahl der Publikationen zeigt, dass Information Seeking Behaviour (ISB) bzw. Informationssuchverhalten in der informationswissenschaftlichen Forschung als relevantes Thema angesehen wird. ISB versteht sich als Unterkategorie von Information Behaviour (IB) bzw. Informationsverhalten, das jegliches menschliches Verhalten mit Bezug zu Wissen und Information umfasst, also z. B. auch Informationsvermeidung oder passives Informationsverhalten. ISB hingegen wurde anfänglich meist als bewusster Prozess verstanden, um sich aufgrund einer festgestellten Wissenslücke Information zu beschaffen. Information Seeking wird als eine alltägliche Aktivität angesehen, die meist dann auftritt, wenn eine informationell unterbestimmte Handlung durchgeführt werden soll
    Type
    a
  3. Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004) 0.04
    0.04057806 = product of:
      0.08115612 = sum of:
        0.042709544 = weight(_text_:von in 2314) [ClassicSimilarity], result of:
          0.042709544 = score(doc=2314,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3334936 = fieldWeight in 2314, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=2314)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 2314) [ClassicSimilarity], result of:
              0.005640907 = score(doc=2314,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 2314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2314)
            0.052028947 = weight(_text_:22 in 2314) [ClassicSimilarity], result of:
              0.052028947 = score(doc=2314,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 2314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2314)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Artikel stellt die erweiterten Suchmöglichkeiten in den wichtigsten Suchmaschinen vor. Dabei handelt es sich um Google, Alta Vista, Hotbot (Inktomi), Teoma und Fireball. Die Oualität von Suchmaschinen wird in der Regel durch Retrievaltests verglichen. Vordem Hintergrund professioneller Ansprüche an die Recherchefähigkeiten der Suchmaschinen müssen aber zusätzlich auch deren Abfragemöglichkeiten betrachtet werden. Nur ausgereifte Abfragesprachen erlauben komplexe Suchanfragen, wie sie im professionellen Umfeld gestellt werden.
    Date
    28.11.2004 13:11:22
    Type
    a
  4. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.03
    0.03470501 = product of:
      0.06941002 = sum of:
        0.067529716 = weight(_text_:von in 349) [ClassicSimilarity], result of:
          0.067529716 = score(doc=349,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.52729964 = fieldWeight in 349, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
        0.0018803024 = product of:
          0.005640907 = sum of:
            0.005640907 = weight(_text_:a in 349) [ClassicSimilarity], result of:
              0.005640907 = score(doc=349,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 349, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=349)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Evaluierung von Suchmaschinen ist von hoher Bedeutung, sowohl wenn es um die Überprüfung der Leistungsfähigkeit selbst entwickelter Systeme geht als auch, um die Qualität der bekannten Suchdienste untereinander zu vergleichen. In diesem Kapitel wird der Standardaufbau von Tests zur Messung der Retrievaleffektivität von Suchmaschinen beschrieben, um darauf aufbauend systematisch die Grenzen dieser Tests aufzuzeigen und erste Lösungsmöglichkeiten zu diskutieren. Es werden Hinweise für die Praxis gegeben, wie sich Retrievaltests mit vertretbarem Aufwand gestalten lassen, die trotzdem zu verwertbaren Ergebnissen führen.
    Type
    a
  5. Lewandowski, D.: Query understanding (2011) 0.03
    0.03432339 = product of:
      0.06864678 = sum of:
        0.030200208 = weight(_text_:von in 344) [ClassicSimilarity], result of:
          0.030200208 = score(doc=344,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23581557 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 344) [ClassicSimilarity], result of:
              0.005640907 = score(doc=344,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
            0.052028947 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.052028947 = score(doc=344,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
    Date
    18. 9.2018 18:22:18
    Type
    a
  6. Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023) 0.03
    0.03318674 = product of:
      0.06637348 = sum of:
        0.064728215 = weight(_text_:von in 777) [ClassicSimilarity], result of:
          0.064728215 = score(doc=777,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5054244 = fieldWeight in 777, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=777)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 777) [ClassicSimilarity], result of:
              0.004935794 = score(doc=777,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=777)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
    Type
    a
  7. Lewandowski, D.: Suchmaschinen (2013) 0.03
    0.027868655 = product of:
      0.05573731 = sum of:
        0.05338693 = weight(_text_:von in 731) [ClassicSimilarity], result of:
          0.05338693 = score(doc=731,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.416867 = fieldWeight in 731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=731)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 731) [ClassicSimilarity], result of:
              0.007051134 = score(doc=731,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=731)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
    Type
    a
  8. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.03
    0.0270943 = product of:
      0.0541886 = sum of:
        0.0523083 = weight(_text_:von in 3611) [ClassicSimilarity], result of:
          0.0523083 = score(doc=3611,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.40844458 = fieldWeight in 3611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
        0.0018803024 = product of:
          0.005640907 = sum of:
            0.005640907 = weight(_text_:a in 3611) [ClassicSimilarity], result of:
              0.005640907 = score(doc=3611,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 3611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3611)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
    Type
    a
  9. Lewandowski, D.: Bewertung von linktopologischen Verfahren als bestimmender Ranking-Faktor bei WWW Suchmaschinen (2006) 0.03
    0.026028758 = product of:
      0.052057516 = sum of:
        0.05064729 = weight(_text_:von in 5892) [ClassicSimilarity], result of:
          0.05064729 = score(doc=5892,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.39547473 = fieldWeight in 5892, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=5892)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 5892) [ClassicSimilarity], result of:
              0.004230681 = score(doc=5892,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 5892, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5892)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Nutzerstudien haben gezeigt, dass in der Regel nur die erste Seite der von WWW Suchmaschinen ausgegebenen Trefferlisten Beachtung findet. Dies unterstreicht die Bedeutung des automatischen Rankings durch die Suchmaschinen: Dokumente, die es nicht auf eine Top-Position der Trefferliste schaffen, finden keine oder wenigstens nur eine geringe Beachtung. Alle bedeutenden Suchmaschinen setzen deshalb als einen wesentlichen Faktor des Rankings linktopologische Verfahren ein. Diese bewerten die Qualität von Webseiten anhand ihrer Verlinkungsstruktur, wobei nicht nur die Zahl der eingehenden Links als Votum gewertet wird, sondern auch die Reputation der verweisenden Seite. Die wichtigsten linktopologischen Ansätze werden erläutert. Dabei wird insbesondere auf die Frage eingegangen, ob bestimmte Arten von Webseiten bevorzugt werden bzw. welche das sind.
    Source
    Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004. Hrsg. von H.P. Ohly u.a
    Type
    a
  10. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.03
    0.0256762 = product of:
      0.0513524 = sum of:
        0.05064729 = weight(_text_:von in 3183) [ClassicSimilarity], result of:
          0.05064729 = score(doc=3183,freq=40.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.39547473 = fieldWeight in 3183, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        7.051135E-4 = product of:
          0.0021153404 = sum of:
            0.0021153404 = weight(_text_:a in 3183) [ClassicSimilarity], result of:
              0.0021153404 = score(doc=3183,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.03821847 = fieldWeight in 3183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3183)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
    Type
    a
  11. Lewandowski, D.: "Find what I mean not what I say" : Neuere Ansätze zur Qualifizierung von Suchmaschinen-Ergebnissen (2001) 0.02
    0.022294924 = product of:
      0.044589847 = sum of:
        0.042709544 = weight(_text_:von in 5932) [ClassicSimilarity], result of:
          0.042709544 = score(doc=5932,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3334936 = fieldWeight in 5932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=5932)
        0.0018803024 = product of:
          0.005640907 = sum of:
            0.005640907 = weight(_text_:a in 5932) [ClassicSimilarity], result of:
              0.005640907 = score(doc=5932,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 5932, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5932)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Seit dem es das Web gibt, seit dem gibt es Suchmaschinen und ebenso Klagen über quantitativ und qualitativ unzureichende Suchergebnisse, schlechte Rankingverfahren und so weiter. Auch die Entwicklung von Meta-Suchmaschinen hat daran nicht viel geändert. Und alle Ansätze, die darauf setzten, dass die Seitenersteller oder die Nutzer selbst sich im Umgang mit dem Web qualifizieren, sind bislang gescheitert. Dennoch gibt es neue und Erfolg versprechende Verbesserungen, die sich die Suchenden zunutze machen können
    Type
    a
  12. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.02
    0.020531306 = product of:
      0.041062612 = sum of:
        0.03963777 = weight(_text_:von in 3378) [ClassicSimilarity], result of:
          0.03963777 = score(doc=3378,freq=18.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30950794 = fieldWeight in 3378, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3378)
        0.0014248411 = product of:
          0.0042745234 = sum of:
            0.0042745234 = weight(_text_:a in 3378) [ClassicSimilarity], result of:
              0.0042745234 = score(doc=3378,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07722905 = fieldWeight in 3378, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3378)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Kampf gegen die Vermüllung ihrer Trefferlisten haben sich die Konkurrenten Google, Microsoft und Yahoo darauf geeinigt, ein neues Attribut für die Verlinkung von Webseiten auszuwerten. Dies könnte ein erster Schritt zu weniger Spam und einer weiteren Zusammenarbeit dergroßen Suchmaschinen sein.
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
    Type
    a
  13. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.02
    0.020320725 = product of:
      0.04064145 = sum of:
        0.039231222 = weight(_text_:von in 378) [ClassicSimilarity], result of:
          0.039231222 = score(doc=378,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 378, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 378) [ClassicSimilarity], result of:
              0.004230681 = score(doc=378,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 378, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=378)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen bilden den bedeutendsten Zugang zu den im World Wide Web verfügbaren Informationen und haben andere Zugänge zu diesem Informationsbestand (wie etwa Internetverzeichnisse) weitgehend verdrängt. Der Suchmaschinenmarkt ist stark konzentriert; nur wenige Anbieter mit eigener Technologie bieten selbst Endnutzerlösungen an und lizenzieren ihre Technologie an die bekannten Web-Portale wie AOL oder T-Online. Die im vorliegenden Kapitel dargestellten Kennzahlen zur Messung der Qualität von Suchmaschinen basieren einerseits auf Erkenntnissen über den State of the Art der Suchmaschinentechnologie, andererseits stehen sie im Kontext eines umfassenderen Modells der Qualitätsmessung für Web-Suchmaschinen. Die besondere Bedeutung von Erkenntnissen über die Qualität der bestehenden Suchmaschinen ergibt sich einerseits aus ihrer Bedeutung für die Weiterentwicklung der Suchmaschinentechnologie. Qualitätsuntersuchungen geben Hinweise auf die Schwachstellen der Suchmaschinen im Allgemeinen und die ihrer Ranking-Algorithmen im Besonderen. Letztere sind als zentral für die Ergebnisqualität anzusehen und bilden den >Kern< der technologischen Leistungsfähigkeit einer jeden Suchmaschine.
    Type
    a
  14. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.02
    0.020320725 = product of:
      0.04064145 = sum of:
        0.039231222 = weight(_text_:von in 5026) [ClassicSimilarity], result of:
          0.039231222 = score(doc=5026,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 5026, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 5026) [ClassicSimilarity], result of:
              0.004230681 = score(doc=5026,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 5026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5026)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
    Type
    a
  15. Lewandowski, D.: Start der eigenen Suchmaschine als Beta-Version (2004) 0.02
    0.020050319 = product of:
      0.040100638 = sum of:
        0.03775026 = weight(_text_:von in 3299) [ClassicSimilarity], result of:
          0.03775026 = score(doc=3299,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 3299, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=3299)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 3299) [ClassicSimilarity], result of:
              0.007051134 = score(doc=3299,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 3299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3299)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Microsoft hat im November nach einer langen Phase der Ankündigungen eine Beta-Version seiner selbst entwickelten Suchmaschine freigeschaltet (http://beta.search.msn.de). Die Qualität der Suchergebnisse ist nach ersten Tests als gut zu bewerten. Erfreulich, dass auf dem von Yahoo und vor allem Google dominierten Markt nun wenigstens ein dritter Player Fuß fassen wird.
    Type
    a
  16. Lewandowski, D.: Suchmaschinen als Konkurrenten der Bibliothekskataloge : Wie Bibliotheken ihre Angebote durch Suchmaschinentechnologie attraktiver und durch Öffnung für die allgemeinen Suchmaschinen populärer machen können (2006) 0.02
    0.019508056 = product of:
      0.039016113 = sum of:
        0.03737085 = weight(_text_:von in 3449) [ClassicSimilarity], result of:
          0.03737085 = score(doc=3449,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 3449, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 3449) [ClassicSimilarity], result of:
              0.004935794 = score(doc=3449,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 3449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3449)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die elektronischen Bibliotheksangebote konkurrieren zunehmend mit den allgemeinen Websuchmaschinen und spezialisierten Wissenschaftssuchmaschinen um die Gunst der Nutzer. Dieser Aufsatz gibt einen kritischen Überblick über die bisherigen Initiativen zum Einsatz von Suchmaschinentechnologie im Bibliothekskontext sowie zur Sichtbarmachung von Bibliotheksinhalten in allgemeinen Suchmaschinen. Darauf aufbauend wird dargestellt, wie Bibliotheksangebote tatsächlich für den Nutzer attraktiver werden können und ihre Sichtbarkeit in Suchmaschinen erhöht werden kann. Grundlegend muss der OPAC zum zentralen Nachweisinstrument für alle in der jeweiligen Bibliothek verfügbaren Informationen gemacht werden. Außerdem müssen die Katalogdaten deutlich angereichert werden, um die Stärken der Suchmaschinentechnologie auch tatsächlich nutzen zu können. Auf der Basis dieser erweiterten Textmenge kann schließlich auch leicht die Auffindbarkeit in allgemeinen Suchmaschinen verbessert werden.
    Type
    a
  17. Lewandowski, D.: Perspektiven eines Open Web Index (2016) 0.02
    0.019508056 = product of:
      0.039016113 = sum of:
        0.03737085 = weight(_text_:von in 2935) [ClassicSimilarity], result of:
          0.03737085 = score(doc=2935,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 2935, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2935)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 2935) [ClassicSimilarity], result of:
              0.004935794 = score(doc=2935,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 2935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2935)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Suchmaschinenmarkt wird seit vielen Jahren von nur einer einzigen Suchmaschine, Google, dominiert. Es wurde mittlerweile erkannt, dass diese Situation nicht wünschenswert ist. Wir sprechen nun über mögliche Lösungen. Der Artikel diskutiert unterschiedliche Lösungsansätze und fokussiert dabei auf die Idee einen Offenen Web-Index (OWI), der als öffentliche Infrastruktur verfügbar gemacht werden soll. Die Grundidee ist die Trennung von Datenbestand (Index) und darauf aufsetzenden Diensten, welche in großer Zahl in privater Initiative betrieben werden können. Es geht also darum, die Basis für Vielfalt zu schaffen.
    Type
    a
  18. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.02
    0.019096741 = product of:
      0.038193483 = sum of:
        0.03737085 = weight(_text_:von in 3438) [ClassicSimilarity], result of:
          0.03737085 = score(doc=3438,freq=16.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 3438, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        8.2263234E-4 = product of:
          0.002467897 = sum of:
            0.002467897 = weight(_text_:a in 3438) [ClassicSimilarity], result of:
              0.002467897 = score(doc=3438,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.044588212 = fieldWeight in 3438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3438)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Wichtig bei einer Entscheidung für ein bestimmtes Suchtool ist der den individuellen Bedürfnissen angepasste Funktionsumfang. Neben der Dateisuche, die alle Programme für die gängigen Formate bewerkstelligen, sollte beispielsweise geprüft werden, welche E-Mail-Formate unterstützt werden. Am wenigsten Probleme hat man wie auch sonst, wenn man nur die Standardsoftware von Microsoft verwendet - deren Dateiformate werden von allen Suchtools unterstützt. Verwendet man aber Programme mit "exotischeren" Dateiformaten oder möchte man beispielsweise Protokolle aus dem Instant Messaging durchsuchen, so wird die Auswahl der Programme deutlich eingeschränkt. Vor der Installation eines Programms sollte man also genau prüfen, ob es den eigenen Anforderungen genügt. Hilfreich ist die umfassende und aktuelle Übersicht des "Suchberaters" Goebel Group unter http://www.goebelgroup.com/desktopmatrix.htm. In dieser Übersicht sind die Preise der einzelnen Tools angegeben. Denn vor allem die von den großen Web-Suchmaschinen angebotenen Werkzeuge sind kostenlos. Mächtigere Programme kosten Geld - auch das sollte man im Umfeld der von den Suchmaschinen repräsentierten Kostenlos-Kultur nicht vergessen. Letztlich sollte der individuelle Nutzen für die Wahl entscheidend sein."
    Type
    a
  19. Lewandowski, D.: Web Information Retrieval (2005) 0.02
    0.018963851 = product of:
      0.037927702 = sum of:
        0.03698755 = weight(_text_:von in 4028) [ClassicSimilarity], result of:
          0.03698755 = score(doc=4028,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.28881392 = fieldWeight in 4028, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        9.401512E-4 = product of:
          0.0028204536 = sum of:
            0.0028204536 = weight(_text_:a in 4028) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=4028,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 4028, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4028)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
    Type
    a
  20. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.02
    0.01701326 = product of:
      0.03402652 = sum of:
        0.03203216 = weight(_text_:von in 5025) [ClassicSimilarity], result of:
          0.03203216 = score(doc=5025,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.001994362 = product of:
          0.005983086 = sum of:
            0.005983086 = weight(_text_:a in 5025) [ClassicSimilarity], result of:
              0.005983086 = score(doc=5025,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10809815 = fieldWeight in 5025, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5025)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Type
    a