Search (25 results, page 1 of 2)

  • × author_ss:"Lewandowski, D."
  1. Haring, M.; Rudaev, A.; Lewandowski, D.: Google & Co. : wie die "Search Studies" an der HAW Hamburg unserem Nutzungsverhalten auf den Zahn fühlen: Blickpunkt angewandte Forschung (2022) 0.01
    0.011358141 = product of:
      0.039753493 = sum of:
        0.026983548 = weight(_text_:internet in 630) [ClassicSimilarity], result of:
          0.026983548 = score(doc=630,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.2609436 = fieldWeight in 630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=630)
        0.012769945 = product of:
          0.038309835 = sum of:
            0.038309835 = weight(_text_:29 in 630) [ClassicSimilarity], result of:
              0.038309835 = score(doc=630,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Forschungsgruppe Search Studies forscht an der HAW Hamburg zur Nutzung kommerzieller Suchmaschinen, zur Suchmaschinenoptimierung und zum Relevance Assessment von Suchmaschinen. Der Leiter der Forschungsgruppe, Prof. Dr. Dirk Lewandowski, stand für ein Interview zu seiner Tätigkeit und der seines Teams, sowie seiner Lehre an der HAW Hamburg zur Verfügung. Sollten wir Informationen aus dem Internet vertrauen oder ist Vorsicht angebracht?
    Date
    28. 1.2022 11:05:29
  2. Lewandowski, D.: Query understanding (2011) 0.01
    0.01132532 = product of:
      0.03963862 = sum of:
        0.026983548 = weight(_text_:internet in 344) [ClassicSimilarity], result of:
          0.026983548 = score(doc=344,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.2609436 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.012655071 = product of:
          0.037965212 = sum of:
            0.037965212 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.037965212 = score(doc=344,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    18. 9.2018 18:22:18
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  3. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.01
    0.009774888 = product of:
      0.06842421 = sum of:
        0.06842421 = weight(_text_:gestaltung in 3183) [ClassicSimilarity], result of:
          0.06842421 = score(doc=3183,freq=6.0), product of:
            0.20432045 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.035026826 = queryNorm
            0.33488676 = fieldWeight in 3183, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.14285715 = coord(1/7)
    
    Content
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
  4. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.01
    0.007264291 = product of:
      0.050850034 = sum of:
        0.050850034 = product of:
          0.07627505 = sum of:
            0.038309835 = weight(_text_:29 in 997) [ClassicSimilarity], result of:
              0.038309835 = score(doc=997,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
            0.037965212 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.037965212 = score(doc=997,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.6666667 = coord(2/3)
      0.14285715 = coord(1/7)
    
    Date
    29. 9.2002 18:49:22
  5. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.00
    0.0049691866 = product of:
      0.017392153 = sum of:
        0.011805302 = weight(_text_:internet in 3438) [ClassicSimilarity], result of:
          0.011805302 = score(doc=3438,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.11416282 = fieldWeight in 3438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.005586851 = product of:
          0.016760552 = sum of:
            0.016760552 = weight(_text_:29 in 3438) [ClassicSimilarity], result of:
              0.016760552 = score(doc=3438,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.13602862 = fieldWeight in 3438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3438)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Source
    Password. 2005, H.6, S.29
  6. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.00
    0.004577243 = product of:
      0.016020348 = sum of:
        0.007587989 = product of:
          0.030351955 = sum of:
            0.030351955 = weight(_text_:seite in 3576) [ClassicSimilarity], result of:
              0.030351955 = score(doc=3576,freq=2.0), product of:
                0.19618745 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.035026826 = queryNorm
                0.15470895 = fieldWeight in 3576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3576)
          0.25 = coord(1/4)
        0.008432359 = weight(_text_:internet in 3576) [ClassicSimilarity], result of:
          0.008432359 = score(doc=3576,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.081544876 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.2857143 = coord(2/7)
    
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
  7. Lewandowski, D.: Desktop-Suche, Shortcuts, SMS (2004) 0.00
    0.004335994 = product of:
      0.030351955 = sum of:
        0.030351955 = product of:
          0.12140782 = sum of:
            0.12140782 = weight(_text_:seite in 3287) [ClassicSimilarity], result of:
              0.12140782 = score(doc=3287,freq=2.0), product of:
                0.19618745 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.035026826 = queryNorm
                0.6188358 = fieldWeight in 3287, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3287)
          0.25 = coord(1/4)
      0.14285715 = coord(1/7)
    
    Abstract
    Google hat im Oktober wieder neue Funktionen vorgestellt. Die bedeutendste davon ist die Desktopsuche (http://desktop.google.com), die EMails, Office-Dokumente und bereits besuchte Webseiten durchsucht. - Auf der deutschen Google-Seite wurden neue Shortcuts integriert. Schließlich gibt es in den "Google Labs" eine neue Suche per SMS.
  8. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.00
    0.0040886253 = product of:
      0.028620375 = sum of:
        0.028620375 = weight(_text_:internet in 5025) [ClassicSimilarity], result of:
          0.028620375 = score(doc=5025,freq=4.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.27677247 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.14285715 = coord(1/7)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
  9. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.00
    0.0038547928 = product of:
      0.026983548 = sum of:
        0.026983548 = weight(_text_:internet in 349) [ClassicSimilarity], result of:
          0.026983548 = score(doc=349,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.2609436 = fieldWeight in 349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
      0.14285715 = coord(1/7)
    
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  10. Lewandowski, D.: Bewertung von linktopologischen Verfahren als bestimmender Ranking-Faktor bei WWW Suchmaschinen (2006) 0.00
    0.0036792129 = product of:
      0.025754489 = sum of:
        0.025754489 = product of:
          0.103017956 = sum of:
            0.103017956 = weight(_text_:seite in 5892) [ClassicSimilarity], result of:
              0.103017956 = score(doc=5892,freq=4.0), product of:
                0.19618745 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.035026826 = queryNorm
                0.52509964 = fieldWeight in 5892, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5892)
          0.25 = coord(1/4)
      0.14285715 = coord(1/7)
    
    Abstract
    Nutzerstudien haben gezeigt, dass in der Regel nur die erste Seite der von WWW Suchmaschinen ausgegebenen Trefferlisten Beachtung findet. Dies unterstreicht die Bedeutung des automatischen Rankings durch die Suchmaschinen: Dokumente, die es nicht auf eine Top-Position der Trefferliste schaffen, finden keine oder wenigstens nur eine geringe Beachtung. Alle bedeutenden Suchmaschinen setzen deshalb als einen wesentlichen Faktor des Rankings linktopologische Verfahren ein. Diese bewerten die Qualität von Webseiten anhand ihrer Verlinkungsstruktur, wobei nicht nur die Zahl der eingehenden Links als Votum gewertet wird, sondern auch die Reputation der verweisenden Seite. Die wichtigsten linktopologischen Ansätze werden erläutert. Dabei wird insbesondere auf die Frage eingegangen, ob bestimmte Arten von Webseiten bevorzugt werden bzw. welche das sind.
  11. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    0.003637889 = product of:
      0.012732611 = sum of:
        0.009540125 = weight(_text_:internet in 3635) [ClassicSimilarity], result of:
          0.009540125 = score(doc=3635,freq=4.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.09225749 = fieldWeight in 3635, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0031924862 = product of:
          0.009577459 = sum of:
            0.009577459 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
              0.009577459 = score(doc=3635,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.07773064 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    11. 2.2006 20:15:29
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
  12. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0034071878 = product of:
      0.023850312 = sum of:
        0.023850312 = weight(_text_:internet in 3752) [ClassicSimilarity], result of:
          0.023850312 = score(doc=3752,freq=4.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.23064373 = fieldWeight in 3752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3752)
      0.14285715 = coord(1/7)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the Deep Web. In addition, we bring a new concept into the discussion, the Academic Invisible Web (AIW). We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the Invisible Web is central to scien-tific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estima-tion based on informetric laws. Literature review on approaches for uncovering information from the Invisible Web. Findings: Bergman's size estimate of the Invisible Web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the Academic Invisible Web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the Academic In-visible Web.
    Theme
    Internet
  13. Lewandowski, D.: Suchmaschinen verstehen (2015) 0.00
    0.0026015965 = product of:
      0.018211175 = sum of:
        0.018211175 = product of:
          0.0728447 = sum of:
            0.0728447 = weight(_text_:seite in 337) [ClassicSimilarity], result of:
              0.0728447 = score(doc=337,freq=2.0), product of:
                0.19618745 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.035026826 = queryNorm
                0.3713015 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=337)
          0.25 = coord(1/4)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Buch betrachtet das Thema Suchmaschinen ausgehend von der täglichen Recherche und führt in die technischen Grundlagen, in Recherchetechniken sowie die gesellschaftlichen und wirtschaftlichen Bedingungen der Recherche im Web ein. Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Nicht zuletzt wird auch die Seite der Recherche betrachtet und gezeigt, wie man mit den bekannten Suchmaschinen effizient recherchieren kann. Das Buch verhilft allen, die mit Suchmaschinen recherchieren oder sich beruflich mit der Optimierung, Aufbereitung und Sichtbarmachung von Inhalten beschäftigen, zu einem umfassenden Verständnis der Ansätze, Stärken und Schwächen verschiedener Suchmaschinen und der ihnen zugrunde liegenden Technologien.
  14. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0024092456 = product of:
      0.016864719 = sum of:
        0.016864719 = weight(_text_:internet in 2580) [ClassicSimilarity], result of:
          0.016864719 = score(doc=2580,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.16308975 = fieldWeight in 2580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2580)
      0.14285715 = coord(1/7)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the deep web. In addition, we bring a new concept into the discussion, the academic invisible web (AIW). We define the academic invisible web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the invisible web is central to scientific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estimation based on informetric laws. Literature review on approaches for uncovering information from the invisible web. Findings: Bergman's size estimate of the invisible web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the academic invisible web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the academic invisible web.
  15. Lewandowski, D.: Open-Access-Archiv für Bibliotheks- und Informationswissenschaft (2004) 0.00
    0.002167997 = product of:
      0.015175978 = sum of:
        0.015175978 = product of:
          0.06070391 = sum of:
            0.06070391 = weight(_text_:seite in 2816) [ClassicSimilarity], result of:
              0.06070391 = score(doc=2816,freq=2.0), product of:
                0.19618745 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.035026826 = queryNorm
                0.3094179 = fieldWeight in 2816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2816)
          0.25 = coord(1/4)
      0.14285715 = coord(1/7)
    
    Content
    "Für die Themenfelder Bibliotheks- und Informationswissenschaft sowie verwandte Anwendungsfelder besteht über das Open-Access-Archiv E-LIS (http://eprints.rclis.org/) die Möglichkeit, Publikationen und Forschungsergebnisse schnell und kostenfrei weltweit verfügbar zu machen. Das Ziel von E-LIS ist es, die Kommunikation innerhalb der Community zu fördern und für eine rasche Verbreitung von Forschungsergebnissen zu sorgen. E-LIS hält sich an die Ziele des Eprint Movement und des Free Scholarship Movement. Das Archiv wird durch "Selbst-Archivierung" aufgebaut, d.h. jede/r Autor/in kann seine Texte selbst ins System einstellen. Bisher sind bereits über 1.000 Publikationen verfügbar, der tägliche Zuwachs kann sich sehen lassen. Allerdings sind bisher so gut wie keine Texte aus dem deutschsprachigen Raum vorhanden. Wir möchten daher alle Autoren wissenschaftlicher Texte aus dem LIS-Bereich aufrufen, ihre E-Prints in E-LIS verfügbar zu machen. Die Vorteile liegen auf der Hand: - Die Texte werden dauerhaft elektronisch verfügbar gemacht. - Es besteht ein einheitlicher und leichter Zugriff auf die Texte. - Die elektronische Verfügbarkeit erhöht die Verbreitung und damit die Wirkung der Forschungsarbeiten. Um einen Text in das System einzustellen, müssen Sie sich einmalig auf der Website anmelden (http://eprints.rclis.org/perl/register) und können dann direkt loslegen. E-LIS basiert allein auf ehrenamtlicher Arbeit und verfolgt keine kommerziellen Ziele. Für Fragen des Copyrights wurde eine eigene Seite eingerichtet (http://eprints.rclis.org/copyright.html), ebenso zur Submission Policy (http://eprints.rclis.org/policy.html)."
  16. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.00
    0.0021462075 = product of:
      0.015023452 = sum of:
        0.015023452 = product of:
          0.06009381 = sum of:
            0.06009381 = weight(_text_:seite in 3378) [ClassicSimilarity], result of:
              0.06009381 = score(doc=3378,freq=4.0), product of:
                0.19618745 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.035026826 = queryNorm
                0.30630812 = fieldWeight in 3378, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3378)
          0.25 = coord(1/4)
      0.14285715 = coord(1/7)
    
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
  17. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.00
    0.0019349392 = product of:
      0.013544573 = sum of:
        0.013544573 = product of:
          0.04063372 = sum of:
            0.04063372 = weight(_text_:29 in 378) [ClassicSimilarity], result of:
              0.04063372 = score(doc=378,freq=4.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.3297832 = fieldWeight in 378, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=378)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    13. 5.2007 10:29:29
  18. Lewandowski, D.: Informationsarmut : sowohl ein quantitatives als auch ein qualitatives Problem (1999) 0.00
    0.0018242779 = product of:
      0.012769945 = sum of:
        0.012769945 = product of:
          0.038309835 = sum of:
            0.038309835 = weight(_text_:29 in 3646) [ClassicSimilarity], result of:
              0.038309835 = score(doc=3646,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 3646, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3646)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    23.10.1996 17:26:29
  19. Lewandowski, D.: Wie können sich Bibliotheken gegenüber Wissenschaftssuchmaschinen positionieren? (2007) 0.00
    0.0018242779 = product of:
      0.012769945 = sum of:
        0.012769945 = product of:
          0.038309835 = sum of:
            0.038309835 = weight(_text_:29 in 5112) [ClassicSimilarity], result of:
              0.038309835 = score(doc=5112,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 5112, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5112)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  20. Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004) 0.00
    0.0018078673 = product of:
      0.012655071 = sum of:
        0.012655071 = product of:
          0.037965212 = sum of:
            0.037965212 = weight(_text_:22 in 2314) [ClassicSimilarity], result of:
              0.037965212 = score(doc=2314,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.30952093 = fieldWeight in 2314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2314)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    28.11.2004 13:11:22

Years

Languages

  • d 21
  • e 4

Types

  • a 22
  • m 2
  • el 1
  • More… Less…

Themes

Classifications