Search (8 results, page 1 of 1)

  • × author_ss:"Lewandowski, D."
  • × language_ss:"d"
  • × year_i:[2010 TO 2020}
  1. Lewandowski, D.: Query understanding (2011) 0.03
    0.03427003 = product of:
      0.102810085 = sum of:
        0.102810085 = sum of:
          0.04778789 = weight(_text_:web in 344) [ClassicSimilarity], result of:
            0.04778789 = score(doc=344,freq=2.0), product of:
              0.1656677 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.050763648 = queryNorm
              0.2884563 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
          0.05502219 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
            0.05502219 = score(doc=344,freq=2.0), product of:
              0.17776565 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050763648 = queryNorm
              0.30952093 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
      0.33333334 = coord(1/3)
    
    Date
    18. 9.2018 18:22:18
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  2. Lewandowski, D.: Perspektiven eines Open Web Index (2016) 0.01
    0.00985575 = product of:
      0.02956725 = sum of:
        0.02956725 = product of:
          0.0591345 = sum of:
            0.0591345 = weight(_text_:web in 2935) [ClassicSimilarity], result of:
              0.0591345 = score(doc=2935,freq=4.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.35694647 = fieldWeight in 2935, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2935)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Suchmaschinenmarkt wird seit vielen Jahren von nur einer einzigen Suchmaschine, Google, dominiert. Es wurde mittlerweile erkannt, dass diese Situation nicht wünschenswert ist. Wir sprechen nun über mögliche Lösungen. Der Artikel diskutiert unterschiedliche Lösungsansätze und fokussiert dabei auf die Idee einen Offenen Web-Index (OWI), der als öffentliche Infrastruktur verfügbar gemacht werden soll. Die Grundidee ist die Trennung von Datenbestand (Index) und darauf aufsetzenden Diensten, welche in großer Zahl in privater Initiative betrieben werden können. Es geht also darum, die Basis für Vielfalt zu schaffen.
  3. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.008447785 = product of:
      0.025343355 = sum of:
        0.025343355 = product of:
          0.05068671 = sum of:
            0.05068671 = weight(_text_:web in 5026) [ClassicSimilarity], result of:
              0.05068671 = score(doc=5026,freq=4.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.3059541 = fieldWeight in 5026, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5026)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
  4. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.01
    0.007964648 = product of:
      0.023893945 = sum of:
        0.023893945 = product of:
          0.04778789 = sum of:
            0.04778789 = weight(_text_:web in 349) [ClassicSimilarity], result of:
              0.04778789 = score(doc=349,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.2884563 = fieldWeight in 349, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=349)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  5. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.01
    0.0069690677 = product of:
      0.020907203 = sum of:
        0.020907203 = product of:
          0.041814405 = sum of:
            0.041814405 = weight(_text_:web in 5023) [ClassicSimilarity], result of:
              0.041814405 = score(doc=5023,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.25239927 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
  6. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.01
    0.006877774 = product of:
      0.020633321 = sum of:
        0.020633321 = product of:
          0.041266643 = sum of:
            0.041266643 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.041266643 = score(doc=1491,freq=2.0), product of:
                0.17776565 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050763648 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 9.2014 18:54:11
  7. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.005973486 = product of:
      0.017920459 = sum of:
        0.017920459 = product of:
          0.035840917 = sum of:
            0.035840917 = weight(_text_:web in 5025) [ClassicSimilarity], result of:
              0.035840917 = score(doc=5025,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.21634221 = fieldWeight in 5025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5025)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
  8. Lewandowski, D.: Suchmaschinen verstehen (2015) 0.01
    0.005973486 = product of:
      0.017920459 = sum of:
        0.017920459 = product of:
          0.035840917 = sum of:
            0.035840917 = weight(_text_:web in 337) [ClassicSimilarity], result of:
              0.035840917 = score(doc=337,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.21634221 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=337)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Buch betrachtet das Thema Suchmaschinen ausgehend von der täglichen Recherche und führt in die technischen Grundlagen, in Recherchetechniken sowie die gesellschaftlichen und wirtschaftlichen Bedingungen der Recherche im Web ein. Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Nicht zuletzt wird auch die Seite der Recherche betrachtet und gezeigt, wie man mit den bekannten Suchmaschinen effizient recherchieren kann. Das Buch verhilft allen, die mit Suchmaschinen recherchieren oder sich beruflich mit der Optimierung, Aufbereitung und Sichtbarmachung von Inhalten beschäftigen, zu einem umfassenden Verständnis der Ansätze, Stärken und Schwächen verschiedener Suchmaschinen und der ihnen zugrunde liegenden Technologien.