Search (56 results, page 2 of 3)

  • × author_ss:"Lewandowski, D."
  1. Lewandowski, D.: Perspektiven eines Open Web Index (2016) 0.01
    0.008849675 = product of:
      0.01769935 = sum of:
        0.01769935 = product of:
          0.026549023 = sum of:
            0.0047050603 = weight(_text_:a in 2935) [ClassicSimilarity], result of:
              0.0047050603 = score(doc=2935,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.089176424 = fieldWeight in 2935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2935)
            0.021843962 = weight(_text_:h in 2935) [ClassicSimilarity], result of:
              0.021843962 = score(doc=2935,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.19214681 = fieldWeight in 2935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2935)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 67(2016) H.1, S.15-21
    Type
    a
  2. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.01
    0.008849675 = product of:
      0.01769935 = sum of:
        0.01769935 = product of:
          0.026549023 = sum of:
            0.0047050603 = weight(_text_:a in 5023) [ClassicSimilarity], result of:
              0.0047050603 = score(doc=5023,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.089176424 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
            0.021843962 = weight(_text_:h in 5023) [ClassicSimilarity], result of:
              0.021843962 = score(doc=5023,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.19214681 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.14-23
    Type
    a
  3. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.008142265 = product of:
      0.01628453 = sum of:
        0.01628453 = product of:
          0.024426792 = sum of:
            0.0057033943 = weight(_text_:a in 5025) [ClassicSimilarity], result of:
              0.0057033943 = score(doc=5025,freq=4.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.10809815 = fieldWeight in 5025, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5025)
            0.018723397 = weight(_text_:h in 5025) [ClassicSimilarity], result of:
              0.018723397 = score(doc=5025,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.16469726 = fieldWeight in 5025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5025)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
    Type
    a
  4. Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019) 0.01
    0.007585435 = product of:
      0.01517087 = sum of:
        0.01517087 = product of:
          0.022756305 = sum of:
            0.004032909 = weight(_text_:a in 5022) [ClassicSimilarity], result of:
              0.004032909 = score(doc=5022,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.07643694 = fieldWeight in 5022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5022)
            0.018723397 = weight(_text_:h in 5022) [ClassicSimilarity], result of:
              0.018723397 = score(doc=5022,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.16469726 = fieldWeight in 5022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5022)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.3-14
    Type
    a
  5. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.007585435 = product of:
      0.01517087 = sum of:
        0.01517087 = product of:
          0.022756305 = sum of:
            0.004032909 = weight(_text_:a in 5026) [ClassicSimilarity], result of:
              0.004032909 = score(doc=5026,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.07643694 = fieldWeight in 5026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5026)
            0.018723397 = weight(_text_:h in 5026) [ClassicSimilarity], result of:
              0.018723397 = score(doc=5026,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.16469726 = fieldWeight in 5026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5026)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.46-56
    Type
    a
  6. Lewandowski, D.: Open-Access-Archiv für Bibliotheks- und Informationswissenschaft (2004) 0.01
    0.0063211964 = product of:
      0.012642393 = sum of:
        0.012642393 = product of:
          0.018963588 = sum of:
            0.0033607571 = weight(_text_:a in 2816) [ClassicSimilarity], result of:
              0.0033607571 = score(doc=2816,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.06369744 = fieldWeight in 2816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2816)
            0.015602832 = weight(_text_:h in 2816) [ClassicSimilarity], result of:
              0.015602832 = score(doc=2816,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.13724773 = fieldWeight in 2816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2816)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Bibliotheksdienst. 38(2004) H.9, S.1156
    Type
    a
  7. Lewandowski, D.: Web Information Retrieval (2005) 0.01
    0.005056957 = product of:
      0.010113914 = sum of:
        0.010113914 = product of:
          0.01517087 = sum of:
            0.0026886058 = weight(_text_:a in 4028) [ClassicSimilarity], result of:
              0.0026886058 = score(doc=4028,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.050957955 = fieldWeight in 4028, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4028)
            0.012482265 = weight(_text_:h in 4028) [ClassicSimilarity], result of:
              0.012482265 = score(doc=4028,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.10979818 = fieldWeight in 4028, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4028)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.5-12
    Type
    a
  8. Lewandowski, D.: ¬Die Informationswissenschaft hat ein strukturelles, kein inhaltliches Problem : Ein Sechs-Punkte-Programm, um aus dem Status eines kleinen Faches herauszukommen (2019) 0.01
    0.005056957 = product of:
      0.010113914 = sum of:
        0.010113914 = product of:
          0.01517087 = sum of:
            0.0026886058 = weight(_text_:a in 5666) [ClassicSimilarity], result of:
              0.0026886058 = score(doc=5666,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.050957955 = fieldWeight in 5666, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5666)
            0.012482265 = weight(_text_:h in 5666) [ClassicSimilarity], result of:
              0.012482265 = score(doc=5666,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.10979818 = fieldWeight in 5666, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5666)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch die Stellungnahme von W. Bredemeier in: Open Password. Nr.676 vom 10.12.2019 u.d.T.: Fehlende Theorie und fehlender Bezugsrahmen auch bei "Human Recorded Information": Fahrlässige Aufgabe des einzigen Alleinstellungsmerkmals, den die Disziplin von vornherein hatte, Die Informationswissenschaft als Hügellandschaft mit "Stand-alone-USPs" [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=833&wysijap=subscriptions&user_id=1045]. Vgl. auch den Bericht über die Berliner Tagung von Stefan Hauff-Hartwig in: Bibliotheksdienst 54(2020) H.1, S.27- . Vgl. auch die Erwiderung: Jörs, B.: Wider eine Überschätzung der gegenwärtigen Leistungen der deutschsprachigen Informationswissenschaft: Keine fehlende Fundierung? Doch mit gesellschaftlicher Relevanz ausgestattet?. Bernd Jörs antwortet Dirk Lewandowski. In: Open Password. Nr. 691 vom 21.01.2020, [https://www.password- online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzksMCw2MjY0LCIxMjF0dWVibnVuczBra2dnY2d3d2c0ODB3ODgwazRzYyIsOCwwXQ].
    Type
    a
  9. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.00
    0.0049988944 = product of:
      0.009997789 = sum of:
        0.009997789 = product of:
          0.014996683 = sum of:
            0.004074702 = weight(_text_:a in 3378) [ClassicSimilarity], result of:
              0.004074702 = score(doc=3378,freq=6.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.07722905 = fieldWeight in 3378, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3378)
            0.010921981 = weight(_text_:h in 3378) [ClassicSimilarity], result of:
              0.010921981 = score(doc=3378,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.096073404 = fieldWeight in 3378, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3378)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
    Source
    Password. 2005, H.2, S.26
    Type
    a
  10. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.00
    0.0044248374 = product of:
      0.008849675 = sum of:
        0.008849675 = product of:
          0.013274511 = sum of:
            0.0023525301 = weight(_text_:a in 3438) [ClassicSimilarity], result of:
              0.0023525301 = score(doc=3438,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.044588212 = fieldWeight in 3438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3438)
            0.010921981 = weight(_text_:h in 3438) [ClassicSimilarity], result of:
              0.010921981 = score(doc=3438,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.096073404 = fieldWeight in 3438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3438)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Password. 2005, H.6, S.29
    Type
    a
  11. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.00
    0.0037927176 = product of:
      0.007585435 = sum of:
        0.007585435 = product of:
          0.011378152 = sum of:
            0.0020164545 = weight(_text_:a in 3183) [ClassicSimilarity], result of:
              0.0020164545 = score(doc=3183,freq=2.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.03821847 = fieldWeight in 3183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3183)
            0.009361698 = weight(_text_:h in 3183) [ClassicSimilarity], result of:
              0.009361698 = score(doc=3183,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.08234863 = fieldWeight in 3183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3183)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
    Type
    a
  12. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.00
    0.0035706393 = product of:
      0.0071412786 = sum of:
        0.0071412786 = product of:
          0.010711918 = sum of:
            0.0029105013 = weight(_text_:a in 3576) [ClassicSimilarity], result of:
              0.0029105013 = score(doc=3576,freq=6.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.05516361 = fieldWeight in 3576, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3576)
            0.007801416 = weight(_text_:h in 3576) [ClassicSimilarity], result of:
              0.007801416 = score(doc=3576,freq=2.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.06862386 = fieldWeight in 3576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3576)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Source
    Password. 2005, H.5, S.21,29
    Type
    a
  13. Sundin, O.; Lewandowski, D.; Haider, J.: Whose relevance? : Web search engines as multisided relevance machines (2022) 0.00
    0.0017534725 = product of:
      0.003506945 = sum of:
        0.003506945 = product of:
          0.0105208345 = sum of:
            0.0105208345 = weight(_text_:a in 542) [ClassicSimilarity], result of:
              0.0105208345 = score(doc=542,freq=10.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.19940455 = fieldWeight in 542, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=542)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    This opinion piece takes Google's response to the so-called COVID-19 infodemic, as a starting point to argue for the need to consider societal relevance as a complement to other types of relevance. The authors maintain that if information science wants to be a discipline at the forefront of research on relevance, search engines, and their use, then the information science research community needs to address itself to the challenges and conditions that commercial search engines create in. The article concludes with a tentative list of related research topics.
    Type
    a
  14. Lewandowski, D.: ¬A framework for evaluating the retrieval effectiveness of search engines (2012) 0.00
    0.0015029765 = product of:
      0.003005953 = sum of:
        0.003005953 = product of:
          0.009017859 = sum of:
            0.009017859 = weight(_text_:a in 106) [ClassicSimilarity], result of:
              0.009017859 = score(doc=106,freq=10.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.1709182 = fieldWeight in 106, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=106)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    This chapter presents a theoretical framework for evaluating next generation search engines. The author focuses on search engines whose results presentation is enriched with additional information and does not merely present the usual list of "10 blue links," that is, of ten links to results, accompanied by a short description. While Web search is used as an example here, the framework can easily be applied to search engines in any other area. The framework not only addresses the results presentation, but also takes into account an extension of the general design of retrieval effectiveness tests. The chapter examines the ways in which this design might influence the results of such studies and how a reliable test is best designed.
    Type
    a
  15. Lewandowski, D.; Drechsler, J.; Mach, S. von: Deriving query intents from web search engine queries (2012) 0.00
    0.0014819547 = product of:
      0.0029639094 = sum of:
        0.0029639094 = product of:
          0.008891728 = sum of:
            0.008891728 = weight(_text_:a in 385) [ClassicSimilarity], result of:
              0.008891728 = score(doc=385,freq=14.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.1685276 = fieldWeight in 385, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=385)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    The purpose of this article is to test the reliability of query intents derived from queries, either by the user who entered the query or by another juror. We report the findings of three studies. First, we conducted a large-scale classification study (~50,000 queries) using a crowdsourcing approach. Next, we used clickthrough data from a search engine log and validated the judgments given by the jurors from the crowdsourcing study. Finally, we conducted an online survey on a commercial search engine's portal. Because we used the same queries for all three studies, we also were able to compare the results and the effectiveness of the different approaches. We found that neither the crowdsourcing approach, using jurors who classified queries originating from other users, nor the questionnaire approach, using searchers who were asked about their own query that they just entered into a Web search engine, led to satisfying results. This leads us to conclude that there was little understanding of the classification tasks, even though both groups of jurors were given detailed instructions. Although we used manual classification, our research also has important implications for automatic classification. We must question the success of approaches using automatic classification and comparing its performance to a baseline from human jurors.
    Type
    a
  16. Behnert, C.; Lewandowski, D.: ¬A framework for designing retrieval effectiveness studies of library information systems using human relevance assessments (2017) 0.00
    0.0014819547 = product of:
      0.0029639094 = sum of:
        0.0029639094 = product of:
          0.008891728 = sum of:
            0.008891728 = weight(_text_:a in 3700) [ClassicSimilarity], result of:
              0.008891728 = score(doc=3700,freq=14.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.1685276 = fieldWeight in 3700, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3700)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Purpose This paper demonstrates how to apply traditional information retrieval evaluation methods based on standards from the Text REtrieval Conference (TREC) and web search evaluation to all types of modern library information systems including online public access catalogs, discovery systems, and digital libraries that provide web search features to gather information from heterogeneous sources. Design/methodology/approach We apply conventional procedures from information retrieval evaluation to the library information system context considering the specific characteristics of modern library materials. Findings We introduce a framework consisting of five parts: (1) search queries, (2) search results, (3) assessors, (4) testing, and (5) data analysis. We show how to deal with comparability problems resulting from diverse document types, e.g., electronic articles vs. printed monographs and what issues need to be considered for retrieval tests in the library context. Practical implications The framework can be used as a guideline for conducting retrieval effectiveness studies in the library context. Originality/value Although a considerable amount of research has been done on information retrieval evaluation, and standards for conducting retrieval effectiveness studies do exist, to our knowledge this is the first attempt to provide a systematic framework for evaluating the retrieval effectiveness of twenty-first-century library information systems. We demonstrate which issues must be considered and what decisions must be made by researchers prior to a retrieval test.
    Type
    a
  17. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    0.001471049 = product of:
      0.002942098 = sum of:
        0.002942098 = product of:
          0.008826294 = sum of:
            0.008826294 = weight(_text_:h in 3635) [ClassicSimilarity], result of:
              0.008826294 = score(doc=3635,freq=4.0), product of:
                0.113683715 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045758117 = queryNorm
                0.077639036 = fieldWeight in 3635, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
    Weitere Rez. in: Mitt. VÖB 58(2005) H.4, S.116-119 (O. Oberhauser)
  18. Lewandowski, D.: Evaluating the retrieval effectiveness of web search engines using a representative query sample (2015) 0.00
    0.001344303 = product of:
      0.002688606 = sum of:
        0.002688606 = product of:
          0.008065818 = sum of:
            0.008065818 = weight(_text_:a in 2157) [ClassicSimilarity], result of:
              0.008065818 = score(doc=2157,freq=8.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.15287387 = fieldWeight in 2157, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2157)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Search engine retrieval effectiveness studies are usually small scale, using only limited query samples. Furthermore, queries are selected by the researchers. We address these issues by taking a random representative sample of 1,000 informational and 1,000 navigational queries from a major German search engine and comparing Google's and Bing's results based on this sample. Jurors were found through crowdsourcing, and data were collected using specialized software, the Relevance Assessment Tool (RAT). We found that although Google outperforms Bing in both query types, the difference in the performance for informational queries was rather low. However, for navigational queries, Google found the correct answer in 95.3% of cases, whereas Bing only found the correct answer 76.6% of the time. We conclude that search engine performance on navigational queries is of great importance, because users in this case can clearly identify queries that have returned correct results. So, performance on this query type may contribute to explaining user satisfaction with search engines.
    Type
    a
  19. Haring, M.; Rudaev, A.; Lewandowski, D.: Google & Co. : wie die "Search Studies" an der HAW Hamburg unserem Nutzungsverhalten auf den Zahn fühlen: Blickpunkt angewandte Forschung (2022) 0.00
    0.0012674211 = product of:
      0.0025348421 = sum of:
        0.0025348421 = product of:
          0.007604526 = sum of:
            0.007604526 = weight(_text_:a in 630) [ClassicSimilarity], result of:
              0.007604526 = score(doc=630,freq=4.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.14413087 = fieldWeight in 630, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Type
    a
  20. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0012524803 = product of:
      0.0025049606 = sum of:
        0.0025049606 = product of:
          0.007514882 = sum of:
            0.007514882 = weight(_text_:a in 2580) [ClassicSimilarity], result of:
              0.007514882 = score(doc=2580,freq=10.0), product of:
                0.052761257 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.045758117 = queryNorm
                0.14243183 = fieldWeight in 2580, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2580)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the deep web. In addition, we bring a new concept into the discussion, the academic invisible web (AIW). We define the academic invisible web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the invisible web is central to scientific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estimation based on informetric laws. Literature review on approaches for uncovering information from the invisible web. Findings: Bergman's size estimate of the invisible web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the academic invisible web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the academic invisible web.
    Type
    a