Search (10 results, page 1 of 1)

  • × language_ss:"d"
  • × author_ss:"Lewandowski, D."
  1. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.009083001 = product of:
      0.08174701 = sum of:
        0.08174701 = weight(_text_:software in 5026) [ClassicSimilarity], result of:
          0.08174701 = score(doc=5026,freq=8.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.525975 = fieldWeight in 5026, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
      0.11111111 = coord(1/9)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
  2. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.00786611 = product of:
      0.070794985 = sum of:
        0.070794985 = weight(_text_:software in 5025) [ClassicSimilarity], result of:
          0.070794985 = score(doc=5025,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.4555077 = fieldWeight in 5025, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.11111111 = coord(1/9)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
  3. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.01
    0.0062938365 = product of:
      0.05664453 = sum of:
        0.05664453 = weight(_text_:systems in 3611) [ClassicSimilarity], result of:
          0.05664453 = score(doc=3611,freq=6.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.4704818 = fieldWeight in 3611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
      0.11111111 = coord(1/9)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
    Footnote
    Bezug zum Buch: White, R.: Interactions with search systems. New York ; Cambridge University Press ; 2016.
  4. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.01
    0.005298417 = product of:
      0.047685754 = sum of:
        0.047685754 = weight(_text_:software in 5023) [ClassicSimilarity], result of:
          0.047685754 = score(doc=5023,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 5023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
      0.11111111 = coord(1/9)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
  5. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.00
    0.0023590683 = product of:
      0.021231614 = sum of:
        0.021231614 = product of:
          0.042463228 = sum of:
            0.042463228 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.042463228 = score(doc=997,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    29. 9.2002 18:49:22
  6. Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004) 0.00
    0.0023590683 = product of:
      0.021231614 = sum of:
        0.021231614 = product of:
          0.042463228 = sum of:
            0.042463228 = weight(_text_:22 in 2314) [ClassicSimilarity], result of:
              0.042463228 = score(doc=2314,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.30952093 = fieldWeight in 2314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2314)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    28.11.2004 13:11:22
  7. Lewandowski, D.: Query understanding (2011) 0.00
    0.0023590683 = product of:
      0.021231614 = sum of:
        0.021231614 = product of:
          0.042463228 = sum of:
            0.042463228 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.042463228 = score(doc=344,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    18. 9.2018 18:22:18
  8. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.00
    0.001769301 = product of:
      0.015923709 = sum of:
        0.015923709 = product of:
          0.031847417 = sum of:
            0.031847417 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.031847417 = score(doc=1491,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    22. 9.2014 18:54:11
  9. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.00
    9.979192E-4 = product of:
      0.0089812735 = sum of:
        0.0089812735 = weight(_text_:of in 378) [ClassicSimilarity], result of:
          0.0089812735 = score(doc=378,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.14660224 = fieldWeight in 378, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
      0.11111111 = coord(1/9)
    
    Abstract
    Suchmaschinen bilden den bedeutendsten Zugang zu den im World Wide Web verfügbaren Informationen und haben andere Zugänge zu diesem Informationsbestand (wie etwa Internetverzeichnisse) weitgehend verdrängt. Der Suchmaschinenmarkt ist stark konzentriert; nur wenige Anbieter mit eigener Technologie bieten selbst Endnutzerlösungen an und lizenzieren ihre Technologie an die bekannten Web-Portale wie AOL oder T-Online. Die im vorliegenden Kapitel dargestellten Kennzahlen zur Messung der Qualität von Suchmaschinen basieren einerseits auf Erkenntnissen über den State of the Art der Suchmaschinentechnologie, andererseits stehen sie im Kontext eines umfassenderen Modells der Qualitätsmessung für Web-Suchmaschinen. Die besondere Bedeutung von Erkenntnissen über die Qualität der bestehenden Suchmaschinen ergibt sich einerseits aus ihrer Bedeutung für die Weiterentwicklung der Suchmaschinentechnologie. Qualitätsuntersuchungen geben Hinweise auf die Schwachstellen der Suchmaschinen im Allgemeinen und die ihrer Ranking-Algorithmen im Besonderen. Letztere sind als zentral für die Ergebnisqualität anzusehen und bilden den >Kern< der technologischen Leistungsfähigkeit einer jeden Suchmaschine.
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  10. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    2.3521183E-4 = product of:
      0.0021169065 = sum of:
        0.0021169065 = weight(_text_:of in 3635) [ClassicSimilarity], result of:
          0.0021169065 = score(doc=3635,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.03455448 = fieldWeight in 3635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "