Search (8 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Internet"
  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Dupont, J.: Falsch! (2017) 0.06
    0.06186381 = product of:
      0.12372762 = sum of:
        0.12372762 = product of:
          0.24745524 = sum of:
            0.24745524 = weight(_text_:news in 3470) [ClassicSimilarity], result of:
              0.24745524 = score(doc=3470,freq=8.0), product of:
                0.26705483 = queryWeight, product of:
                  5.2416887 = idf(docFreq=635, maxDocs=44218)
                  0.05094824 = queryNorm
                0.9266084 = fieldWeight in 3470, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.2416887 = idf(docFreq=635, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3470)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit erfundenen Meldungen lässt sich im Internet viel Geld und politisch Stimmung machen. Wie kann man sie erkennen? Ein Beitrag zum Thema Fake News. Fazit: "Ein Rezept, mit dem man Fake News erkennt, gibt es noch nicht. Bader und Rinsdorf sind aber auf der Suche danach. Im Moment analysieren sie Tausende Fake News auf auffällige Textmerkmale. Anschließend sollen Algorithmen programmiert werden, die in Sekundenschnelle erkennen, mit welcher Wahrscheinlichkeit es sich um eine gefälschte Nachricht handelt. Bader und Rinsdorf: "Wer die Nachrichtenvielfalt nutzt, sich breit informiert und Informationen im Netz mit einer gewissen Grundskepsis begegnet, kann Fake News schneller durchschauen.""
  2. Bünte, O.: Bundesdatenschutzbeauftragte bezweifelt Facebooks Datenschutzversprechen (2018) 0.06
    0.055921838 = product of:
      0.111843675 = sum of:
        0.111843675 = sum of:
          0.07732976 = weight(_text_:news in 4180) [ClassicSimilarity], result of:
            0.07732976 = score(doc=4180,freq=2.0), product of:
              0.26705483 = queryWeight, product of:
                5.2416887 = idf(docFreq=635, maxDocs=44218)
                0.05094824 = queryNorm
              0.28956512 = fieldWeight in 4180, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.2416887 = idf(docFreq=635, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4180)
          0.034513917 = weight(_text_:22 in 4180) [ClassicSimilarity], result of:
            0.034513917 = score(doc=4180,freq=2.0), product of:
              0.17841205 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05094824 = queryNorm
              0.19345059 = fieldWeight in 4180, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4180)
      0.5 = coord(1/2)
    
    Date
    23. 3.2018 13:41:22
    Footnote
    Vgl. zum Hintergrund auch: https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election; https://www.nytimes.com/2018/03/18/us/cambridge-analytica-facebook-privacy-data.html; http://www.latimes.com/business/la-fi-tn-facebook-cambridge-analytica-sued-20180321-story.html; https://www.tagesschau.de/wirtschaft/facebook-cambridge-analytica-103.html; http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html; http://www.spiegel.de/netzwelt/netzpolitik/cambridge-analytica-facebook-sieht-sich-im-datenskandal-als-opfer-a-1199095.html; https://www.heise.de/newsticker/meldung/Datenskandal-um-Cambridge-Analytica-Facebook-sieht-sich-als-Opfer-3999922.html.
  3. Quattrociocchi, W.: "Fake news" in sozialen Netzwerken (2017) 0.04
    0.03866488 = product of:
      0.07732976 = sum of:
        0.07732976 = product of:
          0.15465952 = sum of:
            0.15465952 = weight(_text_:news in 3630) [ClassicSimilarity], result of:
              0.15465952 = score(doc=3630,freq=2.0), product of:
                0.26705483 = queryWeight, product of:
                  5.2416887 = idf(docFreq=635, maxDocs=44218)
                  0.05094824 = queryNorm
                0.57913023 = fieldWeight in 3630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.2416887 = idf(docFreq=635, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3630)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Taglinger, H.: ¬Die Sache mit den Daten (2018) 0.03
    0.027065417 = product of:
      0.054130834 = sum of:
        0.054130834 = product of:
          0.10826167 = sum of:
            0.10826167 = weight(_text_:news in 4580) [ClassicSimilarity], result of:
              0.10826167 = score(doc=4580,freq=2.0), product of:
                0.26705483 = queryWeight, product of:
                  5.2416887 = idf(docFreq=635, maxDocs=44218)
                  0.05094824 = queryNorm
                0.40539116 = fieldWeight in 4580, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.2416887 = idf(docFreq=635, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4580)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    https://www.heise.de/tp/news/Die-Sache-mit-den-Daten-4061522.html?view=print
  5. Landwehr, A.: China schafft digitales Punktesystem für den "besseren" Menschen (2018) 0.01
    0.013805566 = product of:
      0.027611133 = sum of:
        0.027611133 = product of:
          0.055222265 = sum of:
            0.055222265 = weight(_text_:22 in 4314) [ClassicSimilarity], result of:
              0.055222265 = score(doc=4314,freq=2.0), product of:
                0.17841205 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05094824 = queryNorm
                0.30952093 = fieldWeight in 4314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4314)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2018 14:29:46
  6. Hartmann, B.: Ab ins MoMA : zum virtuellen Museumsgang (2011) 0.01
    0.010354174 = product of:
      0.020708349 = sum of:
        0.020708349 = product of:
          0.041416697 = sum of:
            0.041416697 = weight(_text_:22 in 1821) [ClassicSimilarity], result of:
              0.041416697 = score(doc=1821,freq=2.0), product of:
                0.17841205 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05094824 = queryNorm
                0.23214069 = fieldWeight in 1821, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1821)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
  7. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.01
    0.007321507 = product of:
      0.014643014 = sum of:
        0.014643014 = product of:
          0.029286029 = sum of:
            0.029286029 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.029286029 = score(doc=3080,freq=4.0), product of:
                0.17841205 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05094824 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
  8. Höhn, S.: Stalins Badezimmer in Wikipedia : Die Macher der Internet-Enzyklopädie diskutieren über Verantwortung und Transparenz. Der Brockhaus kehrt dagegen zur gedruckten Ausgabe zurück. (2012) 0.01
    0.006101256 = product of:
      0.012202512 = sum of:
        0.012202512 = product of:
          0.024405023 = sum of:
            0.024405023 = weight(_text_:22 in 2171) [ClassicSimilarity], result of:
              0.024405023 = score(doc=2171,freq=4.0), product of:
                0.17841205 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05094824 = queryNorm
                0.13679022 = fieldWeight in 2171, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2171)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Der neue Herausgeber des Brockhaus, ein Tochterverlag von Bertelsmann, hat unterdessen angekündigt, zum gedruckten Lexikon zurückzukehren. Etwa Anfang 2015 soll die 22. Auflage erscheinen. In Zeiten des virtuellen Informationsoverkills gebe es einen Bedarf an Orientierung, an Relevanzvorgaben, sagt Geschäftsführer Christoph Hünermann. Ausgerechnet Bertelsmann druckte 2008 ein knapp 1 000 Seiten langes Wikipedia-Lexikon mit den 50 000 meist gesuchten Begriffen. Eine Experten-Redaktion überprüfte die Einträge sicherheitshalber zuvor - soll allerdings kaum Fehler gefunden haben."
    Source
    Frankfurter Rundschau. Nr.76 vom 29.3.2012, S.22-23