Search (13 results, page 1 of 1)

  • × author_ss:"Rötzer, F."
  • × type_ss:"el"
  1. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.02
    0.023132622 = product of:
      0.034698933 = sum of:
        0.025481766 = weight(_text_:im in 4217) [ClassicSimilarity], result of:
          0.025481766 = score(doc=4217,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.17667414 = fieldWeight in 4217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.009217165 = product of:
          0.027651496 = sum of:
            0.027651496 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.027651496 = score(doc=4217,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    22. 1.2018 11:32:44
    Source
    https://www.heise.de/tp/features/KI-Programm-besser-als-Menschen-im-Verstaendnis-natuerlicher-Sprache-3941786.html?view=print
  2. Rötzer, F.: Droht bei einer Verschmelzung des Gehirns mit KI der Verlust des Bewusstseins? (2020) 0.02
    0.015015274 = product of:
      0.045045823 = sum of:
        0.045045823 = weight(_text_:im in 5699) [ClassicSimilarity], result of:
          0.045045823 = score(doc=5699,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.3123187 = fieldWeight in 5699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Philosophin und Kognitionswissenschaftlerin Susan Schneider führt ungelöste Probleme für die Implantation von Chips im Gehirn zur kognitiven Optimierung an.
  3. Rötzer, F.: Sozialkreditsysteme im Kapitalismus (2019) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 5826) [ClassicSimilarity], result of:
          0.044593092 = score(doc=5826,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 5826, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5826)
      0.33333334 = coord(1/3)
    
    Abstract
    Extralegale Bestrafungssysteme: China will ehrliches Verhalten durch Überwachung, Bestrafung und Privilegien konditionieren, im Kapitalismus werden Privilegien bislang durch Geld reguliert. 2014 hat China begonnen, sein Sozialkreditsystem einzuführen, geplant ist die grundsätzliche Umsetzung bis 2020. Ab dann werden auch alle Unternehmen durch Zusammenfassung vorhandener Daten nach Punkten bewertet, auch die ausländischen. So könnten die auch politisch angepassten Unternehmen mit einer geringeren Steuer, weniger Auflagen und Staatsaufträgen belohnt werden. Man braucht allerdings auch nicht nur mit dem Finger auf China zu zeigen. In Deutschland gibt es mit dem privatwirtschaftlichen Unternehmen Schufa schon lange ein solches Scoring-System zur Bonitätsprüfung mit durchaus folgenschweren Sanktionen.
  4. Engel, B.; Rötzer, F.: Oberster Datenschützer und 73 Mio. Bürger ausgetrickst (2020) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 5954) [ClassicSimilarity], result of:
          0.044593092 = score(doc=5954,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 5954, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5954)
      0.33333334 = coord(1/3)
    
    Abstract
    "Datenrasterung". "Gläserner Versicherter". Jetzt äußert sich der Bundesdatenschutzbeauftragte zu dem ungeheuerlichen Vorgang. Es ist schlimmer, als bisher angenommen. Und es zeigt, welche Manöver die Bundesregierung unternommen hat, um Datenschutzrechte von 73 Millionen gesetzlich Versicherter auszuhebeln, ohne dass die betroffenen Bürger selbst davon erfahren. Aber das ist, wie sich jetzt herausstellt, noch nicht alles. Am Montag hatte Telepolis aufgedeckt, dass CDU/CSU und SPD mit Hilfe eines von der Öffentlichkeit unbemerkten Änderungsantrags zum EPA-Gesetz (Elektronische Patientenakte) das erst im November im Digitale-Versorgung-Gesetz (DVG) (Wie man Datenschutz als Versorgungsinnovation framet) festgeschriebene Einwilligungserfordernis zur individualisierten Datenauswertung durch die Krankenkassen still und leise wieder beseitigt haben (zur genauen Einordnung des aktuellen Vorgangs: EPA-Datengesetz - Sie haben den Affen übersehen).
  5. Rötzer, F.: Sahra Wagenknecht über die Digitalisierung (1999) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 3951) [ClassicSimilarity], result of:
          0.031532075 = score(doc=3951,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 3951, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3951)
      0.33333334 = coord(1/3)
    
    Abstract
    Florian Rötzer hat in einem langen Gespräch mit Sahra Wagenknecht, aus dem das Buch "Couragiert gegen den Strom. Über Goethe, die Macht und die Zukunft!" hervorgegangen ist, u.a. darüber gesprochen, wie Kultur und philosophisches Denken die politischen Vorstellungen und den politischen Stil der linken Politikerin geprägt haben. Dabei ging es auch um den Kapitalismus und dessen Abschaffung, um den Kern linker Politik, die Konkurrenz in der Wirtschaft und auch über die Digitalisierung sowie die Ideen, mit einer Maschinensteuer oder einem bedingungslosen Grundeinkommen das Schlimmste zu verhindern. Telepolis veröffentlicht einen Auszug aus dem Buch, das im Westendverlag erschienen ist.
  6. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 3977) [ClassicSimilarity], result of:
          0.031532075 = score(doc=3977,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.33333334 = coord(1/3)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  7. Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 5697) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5697,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5697)
      0.33333334 = coord(1/3)
    
    Content
    "Aber warum werden Titel mit Bindestrichen weniger häufig zitiert? Die Wissenschaftler vermuten, dass Autoren, wenn sie einen Artikel zitieren, möglicherweise übersehen, Bindestriche anzugeben. Dann kann in den Datenbanken keine Verlinkung mit dem Artikel mit Bindestrichen im Titel hergestellt werden, weswegen der Zitationsindex falsch wird. Das Problem scheint sich bei mehreren Bindestrichen zu verstärken, die die Irrtumshäufigkeit der Menschen erhöhen. Dass die Länge der Titel etwas mit der Zitationshäufigkeit zu tun hat, bestreiten die Wissenschaftler. Längere Titel würden einfach mit höherer Wahrscheinlichkeit mehr Bindestriche enthalten - und deswegen weniger häufig wegen der Bindestrichfehler zitiert werden. Und Artikel mit Bindestrichen sollen auch den JIF von Wissenschaftsjournalen senken."
  8. Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017) 0.01
    0.007507637 = product of:
      0.022522911 = sum of:
        0.022522911 = weight(_text_:im in 5243) [ClassicSimilarity], result of:
          0.022522911 = score(doc=5243,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 5243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
      0.33333334 = coord(1/3)
    
    Abstract
    Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
  9. Rötzer, F.: Computerspiele verbessern die Aufmerksamkeit : Nach einer Untersuchung von Kognitionswissenschaftlern schulen Shooter-Spiele manche Leistungen der visuellen Aufmerksamkeit (2003) 0.01
    0.0063704415 = product of:
      0.019111324 = sum of:
        0.019111324 = weight(_text_:im in 1643) [ClassicSimilarity], result of:
          0.019111324 = score(doc=1643,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.13250561 = fieldWeight in 1643, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1643)
      0.33333334 = coord(1/3)
    
    Abstract
    Jede Art von Tätigkeit, die ein wenig Geschick erfordert, fördert und trainiert körperliche und geistige Leistungen. Es wäre also schon sonderlich, wenn dies bei Computerspielen und gerade den umstrittenen Action- oder Ego-Shooter-Spielen nicht der Fall sein würde. Es ist schwierig, komplexe Verhaltensweisen oder Einstellungen wie Gewaltbereitschaft zu erfassen. Viel leichter lassen sich hingegen Einflüsse von Spielen auf ganz bestimmte, abgrenzbare kognitive Leistungen empirisch feststellen. Und so haben jetzt US-Wissenschaftler nachweisen können, dass Computerspieler im Hinblick auf Aufgaben, die visuelle Aufmerksamkeit erfordern, bis zu 50 Prozent besser sind als Nichtspieler - wenn sie sich an Ballerspielen wie Counter-Strike üben.
    Content
    Tatsächlich waren die "Medal of Honor"-Spieler nach der Trainingsphase bei den Aufgaben, bei denen auch die Langzeitspieler besser abschnitten, den "Tetris"-Spielern und den Nichtspielern überlegen: "Zehn Tage des Trainings mit einem Action-Spiel", so die Wissenschaftler, "reicht aus, um die Fähigkeiten der visuellen Aufmerksamkeit, ihrer räumlichen Verteilung und ihrer zeitlichen Auflösung zu verbessern." Unklar ist jedoch, wie diese Verbesserung zustande kommt. Vielleicht werden durch das Training bestimmte Formen des "Flaschenhalses", die zu einem "Stau" bei der Verarbeitung führen und daher die Leistung herabsetzen, verändert. Möglicherweise aber werden einfach Wahrnehmungs- und Aufmerksamkeitsprozesse beschleunigt, so dass geübte Spieler beispielsweise schneller Reize selektieren können. Vielleicht fördern Spiele zudem das Multitasking, so dass die Trainierten mehr "Aufmerksamkeitsfenster" gleichzeitig offen halten können als Menschen, die sich nicht an Shooter-Spielen üben. Für bestimmte Arbeiten, beispielsweise Autofahren, Fliegen, Überwachen von vielen Monitoren, Beobachtung von Radar, Kontrolle von Menschen und Gepäck an Grenzen, Fernsteuerung von Objekten - oder natürlich für Soldaten oder Terroristen, die sich schnell auf unbekanntem Territorium orientieren, Feinde erkennen und auf diese reagieren müssen, wären also wohl Shooter-Spiele eine gute Übung. Gleichwohl sagen visuelle Fähigkeiten freilich nichts über die Gewaltbereitschaft im wirklichen Leben aus.
  10. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.01
    0.0063704415 = product of:
      0.019111324 = sum of:
        0.019111324 = weight(_text_:im in 3385) [ClassicSimilarity], result of:
          0.019111324 = score(doc=3385,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.13250561 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.33333334 = coord(1/3)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  11. Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 3978) [ClassicSimilarity], result of:
              0.055302992 = score(doc=3978,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 3978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3978)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Issue
    [22. November 2017].
  12. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.055302992 = score(doc=4427,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 1.2018 11:08:27
  13. Rötzer, F.: Umgekehrter Turing-Test : Welches Gesicht ist real? (2019) 0.01
    0.00600611 = product of:
      0.01801833 = sum of:
        0.01801833 = weight(_text_:im in 5262) [ClassicSimilarity], result of:
          0.01801833 = score(doc=5262,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.12492748 = fieldWeight in 5262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5262)
      0.33333334 = coord(1/3)
    
    Content
    Fotografie wurde seit ihrem Beginn wegen ihrer Entsubjektivierung gefeiert. Im Unterschied zur Malerei von der Bildherstellung durch den Apparat und die Lichtmalerei ersetzt wird. Deswegen wurde Fotografie als objektives Medium verherrlicht. Was von dem Objektiv aufgenommen wurde, soll es da auch gegeben haben. Der Druck auf den Auslöserknopf setzte die Wahrheitsbildgebung in Kraft, auch wenn der Ausschnitt, die Belichtung oder die Schärfe die Darstellung der Szene verändert. Mit der digitalen Fotografie hat sich das Misstrauen in das fotografische Bild extrem verstärkt - zu Recht. Zwar konnten auch schon zuvor Bilder manipuliert werden, nicht nur mit Nachbearbeitung, sondern auch, was überhaupt aufgenommen und wie das Bild beschrieben wird, digital ist aber das Foto bestenfalls Ausgangsbasis für Verabeitungen. Mit Mitteln der Künstlichen Intelligenz lassen sich fotorealistische Fakes noch leichter bewerkstelligen. Ein Bild ist kein Beweis für etwas Wirkliches mehr, sondern nur noch ein - auch bewegtes - Bild, das ebenso wenig oder viel Glaubwürdigkeit hat wie beispielsweise ein Text. Vertrauen muss in die Quelle gesetzt werden, die Bilder oder Texte produziert und verbreitet. Deepfakes nennt man fotorealistische Bilder und Videos, die manipuliert sind. Das Problem ist, dass diese immer leichter herstellbaren verfälschten Bilder auch als Belege für politische Zwecke verwendet werden können. Noch immer glauben viele traditionsverhaftet eher scheinbar objektiv generierten Bildern als etwa Texten. Die seit Februar existierende Website ThisPersonDoesNotExist.com zeigt, wie leicht wir getäuscht werden können. Mit der Hilfe des KI-Algorithmus StyleGAN von Nvidia wird hier demonstriert, wie täuschend realistische Bilder von Personen erzeugt werden können, die es nicht gibt. Dabei konkurrieren gewissermaßen zwei neuronale Netze, die mit Bildern von Gesichtern von Prominenten und von Menschen auf Flickr gefüttert wurden, gegeneinander an.