Search (38 results, page 1 of 2)

  • × theme_ss:"Suchmaschinen"
  • × year_i:[2010 TO 2020}
  1. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.06
    0.055822805 = product of:
      0.11164561 = sum of:
        0.103556395 = weight(_text_:lernen in 4996) [ClassicSimilarity], result of:
          0.103556395 = score(doc=4996,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.49526796 = fieldWeight in 4996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0625 = fieldNorm(doc=4996)
        0.008089217 = product of:
          0.040446084 = sum of:
            0.040446084 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.040446084 = score(doc=4996,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Date
    19. 2.2019 17:22:00
  2. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.02
    0.019416824 = product of:
      0.077667296 = sum of:
        0.077667296 = weight(_text_:lernen in 5025) [ClassicSimilarity], result of:
          0.077667296 = score(doc=5025,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.37145096 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
  3. Söhler, M.: Schluss mit Schema F (2011) 0.02
    0.018306358 = product of:
      0.07322543 = sum of:
        0.07322543 = weight(_text_:lernen in 4439) [ClassicSimilarity], result of:
          0.07322543 = score(doc=4439,freq=4.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.35020733 = fieldWeight in 4439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.25 = coord(1/4)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
  4. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.02
    0.016018063 = product of:
      0.06407225 = sum of:
        0.06407225 = weight(_text_:lernen in 4440) [ClassicSimilarity], result of:
          0.06407225 = score(doc=4440,freq=4.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.3064314 = fieldWeight in 4440, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.25 = coord(1/4)
    
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
  5. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.01
    0.0051961667 = product of:
      0.020784667 = sum of:
        0.020784667 = product of:
          0.051961668 = sum of:
            0.0264534 = weight(_text_:28 in 3068) [ClassicSimilarity], result of:
              0.0264534 = score(doc=3068,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.19789396 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
            0.025508268 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.025508268 = score(doc=3068,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    28. 7.2016 16:03:34
    Source
    Young information scientists. 1(2016), S.13-29
  6. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.00
    0.0036754739 = product of:
      0.014701895 = sum of:
        0.014701895 = product of:
          0.03675474 = sum of:
            0.01530496 = weight(_text_:29 in 3080) [ClassicSimilarity], result of:
              0.01530496 = score(doc=3080,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.11659596 = fieldWeight in 3080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
            0.021449778 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.021449778 = score(doc=3080,freq=4.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    Date
    24. 8.2016 9:29:24
  7. Peters, I.: Folksonomies und kollaborative Informationsdienste : eine Alternative zur Websuche? (2011) 0.00
    0.0020406614 = product of:
      0.008162646 = sum of:
        0.008162646 = product of:
          0.040813226 = sum of:
            0.040813226 = weight(_text_:29 in 343) [ClassicSimilarity], result of:
              0.040813226 = score(doc=343,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.31092256 = fieldWeight in 343, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=343)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Pages
    S.29-53
  8. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.00
    0.0020406614 = product of:
      0.008162646 = sum of:
        0.008162646 = product of:
          0.040813226 = sum of:
            0.040813226 = weight(_text_:29 in 2222) [ClassicSimilarity], result of:
              0.040813226 = score(doc=2222,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.31092256 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    18.10.2015 10:29:56
  9. Lewandowski, D.: Query understanding (2011) 0.00
    0.0020223043 = product of:
      0.008089217 = sum of:
        0.008089217 = product of:
          0.040446084 = sum of:
            0.040446084 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.040446084 = score(doc=344,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    18. 9.2018 18:22:18
  10. Bensman, S.J.: Eugene Garfield, Francis Narin, and PageRank : the theoretical bases of the Google search engine (2013) 0.00
    0.0020223043 = product of:
      0.008089217 = sum of:
        0.008089217 = product of:
          0.040446084 = sum of:
            0.040446084 = weight(_text_:22 in 1149) [ClassicSimilarity], result of:
              0.040446084 = score(doc=1149,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.30952093 = fieldWeight in 1149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1149)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    17.12.2013 11:02:22
  11. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.00
    0.0020223043 = product of:
      0.008089217 = sum of:
        0.008089217 = product of:
          0.040446084 = sum of:
            0.040446084 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.040446084 = score(doc=1484,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    13. 9.2014 14:45:22
  12. Franke-Maier, M.; Rüter, C.: Discover Sacherschließung! : Was machen suchmaschinenbasierte Systeme mit unseren inhaltlichen Metadaten? (2015) 0.00
    0.0017855786 = product of:
      0.007142314 = sum of:
        0.007142314 = product of:
          0.03571157 = sum of:
            0.03571157 = weight(_text_:29 in 1706) [ClassicSimilarity], result of:
              0.03571157 = score(doc=1706,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.27205724 = fieldWeight in 1706, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1706)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    2. 3.2015 10:29:44
  13. Lewandowski, D.: Perspektiven eines Open Web Index (2016) 0.00
    0.0017855786 = product of:
      0.007142314 = sum of:
        0.007142314 = product of:
          0.03571157 = sum of:
            0.03571157 = weight(_text_:29 in 2935) [ClassicSimilarity], result of:
              0.03571157 = score(doc=2935,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.27205724 = fieldWeight in 2935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2935)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    16. 5.2016 21:53:29
  14. Das, A.; Jain, A.: Indexing the World Wide Web : the journey so far (2012) 0.00
    0.0015872039 = product of:
      0.0063488157 = sum of:
        0.0063488157 = product of:
          0.031744078 = sum of:
            0.031744078 = weight(_text_:28 in 95) [ClassicSimilarity], result of:
              0.031744078 = score(doc=95,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23747274 = fieldWeight in 95, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=95)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Pages
    S.1-28
  15. Johnson, F.; Rowley, J.; Sbaffi, L.: Exploring information interactions in the context of Google (2016) 0.00
    0.0015872039 = product of:
      0.0063488157 = sum of:
        0.0063488157 = product of:
          0.031744078 = sum of:
            0.031744078 = weight(_text_:28 in 2885) [ClassicSimilarity], result of:
              0.031744078 = score(doc=2885,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23747274 = fieldWeight in 2885, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2885)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    17. 3.2016 19:28:18
  16. Ke, W.: Decentralized search and the clustering paradox in large scale information networks (2012) 0.00
    0.001530496 = product of:
      0.006121984 = sum of:
        0.006121984 = product of:
          0.03060992 = sum of:
            0.03060992 = weight(_text_:29 in 94) [ClassicSimilarity], result of:
              0.03060992 = score(doc=94,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23319192 = fieldWeight in 94, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=94)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Pages
    S.29-46
  17. Fluhr, C.: Crosslingual access to photo databases (2012) 0.00
    0.0015167282 = product of:
      0.006066913 = sum of:
        0.006066913 = product of:
          0.030334564 = sum of:
            0.030334564 = weight(_text_:22 in 93) [ClassicSimilarity], result of:
              0.030334564 = score(doc=93,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23214069 = fieldWeight in 93, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=93)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    17. 4.2012 14:25:22
  18. Chen, L.-C.: Next generation search engine for the result clustering technology (2012) 0.00
    0.0015167282 = product of:
      0.006066913 = sum of:
        0.006066913 = product of:
          0.030334564 = sum of:
            0.030334564 = weight(_text_:22 in 105) [ClassicSimilarity], result of:
              0.030334564 = score(doc=105,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23214069 = fieldWeight in 105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=105)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    17. 4.2012 15:22:11
  19. Bouidghaghen, O.; Tamine, L.: Spatio-temporal based personalization for mobile search (2012) 0.00
    0.0015167282 = product of:
      0.006066913 = sum of:
        0.006066913 = product of:
          0.030334564 = sum of:
            0.030334564 = weight(_text_:22 in 108) [ClassicSimilarity], result of:
              0.030334564 = score(doc=108,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23214069 = fieldWeight in 108, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=108)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    20. 4.2012 13:19:22
  20. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.00
    0.0015167282 = product of:
      0.006066913 = sum of:
        0.006066913 = product of:
          0.030334564 = sum of:
            0.030334564 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.030334564 = score(doc=1491,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    22. 9.2014 18:54:11