Search (8 results, page 1 of 1)

  • × author_ss:"Rötzer, F."
  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.02
    0.023132622 = product of:
      0.034698933 = sum of:
        0.025481766 = weight(_text_:im in 4217) [ClassicSimilarity], result of:
          0.025481766 = score(doc=4217,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.17667414 = fieldWeight in 4217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.009217165 = product of:
          0.027651496 = sum of:
            0.027651496 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.027651496 = score(doc=4217,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    22. 1.2018 11:32:44
    Source
    https://www.heise.de/tp/features/KI-Programm-besser-als-Menschen-im-Verstaendnis-natuerlicher-Sprache-3941786.html?view=print
  2. Rötzer, F.: Sozialkreditsysteme im Kapitalismus (2019) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 5826) [ClassicSimilarity], result of:
          0.044593092 = score(doc=5826,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 5826, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5826)
      0.33333334 = coord(1/3)
    
    Abstract
    Extralegale Bestrafungssysteme: China will ehrliches Verhalten durch Überwachung, Bestrafung und Privilegien konditionieren, im Kapitalismus werden Privilegien bislang durch Geld reguliert. 2014 hat China begonnen, sein Sozialkreditsystem einzuführen, geplant ist die grundsätzliche Umsetzung bis 2020. Ab dann werden auch alle Unternehmen durch Zusammenfassung vorhandener Daten nach Punkten bewertet, auch die ausländischen. So könnten die auch politisch angepassten Unternehmen mit einer geringeren Steuer, weniger Auflagen und Staatsaufträgen belohnt werden. Man braucht allerdings auch nicht nur mit dem Finger auf China zu zeigen. In Deutschland gibt es mit dem privatwirtschaftlichen Unternehmen Schufa schon lange ein solches Scoring-System zur Bonitätsprüfung mit durchaus folgenschweren Sanktionen.
  3. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 3977) [ClassicSimilarity], result of:
          0.031532075 = score(doc=3977,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.33333334 = coord(1/3)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  4. Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 5697) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5697,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5697)
      0.33333334 = coord(1/3)
    
    Content
    "Aber warum werden Titel mit Bindestrichen weniger häufig zitiert? Die Wissenschaftler vermuten, dass Autoren, wenn sie einen Artikel zitieren, möglicherweise übersehen, Bindestriche anzugeben. Dann kann in den Datenbanken keine Verlinkung mit dem Artikel mit Bindestrichen im Titel hergestellt werden, weswegen der Zitationsindex falsch wird. Das Problem scheint sich bei mehreren Bindestrichen zu verstärken, die die Irrtumshäufigkeit der Menschen erhöhen. Dass die Länge der Titel etwas mit der Zitationshäufigkeit zu tun hat, bestreiten die Wissenschaftler. Längere Titel würden einfach mit höherer Wahrscheinlichkeit mehr Bindestriche enthalten - und deswegen weniger häufig wegen der Bindestrichfehler zitiert werden. Und Artikel mit Bindestrichen sollen auch den JIF von Wissenschaftsjournalen senken."
  5. Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017) 0.01
    0.007507637 = product of:
      0.022522911 = sum of:
        0.022522911 = weight(_text_:im in 5243) [ClassicSimilarity], result of:
          0.022522911 = score(doc=5243,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 5243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
      0.33333334 = coord(1/3)
    
    Abstract
    Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
  6. Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 3978) [ClassicSimilarity], result of:
              0.055302992 = score(doc=3978,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 3978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3978)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Issue
    [22. November 2017].
  7. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.055302992 = score(doc=4427,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 1.2018 11:08:27
  8. Rötzer, F.: Umgekehrter Turing-Test : Welches Gesicht ist real? (2019) 0.01
    0.00600611 = product of:
      0.01801833 = sum of:
        0.01801833 = weight(_text_:im in 5262) [ClassicSimilarity], result of:
          0.01801833 = score(doc=5262,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.12492748 = fieldWeight in 5262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5262)
      0.33333334 = coord(1/3)
    
    Content
    Fotografie wurde seit ihrem Beginn wegen ihrer Entsubjektivierung gefeiert. Im Unterschied zur Malerei von der Bildherstellung durch den Apparat und die Lichtmalerei ersetzt wird. Deswegen wurde Fotografie als objektives Medium verherrlicht. Was von dem Objektiv aufgenommen wurde, soll es da auch gegeben haben. Der Druck auf den Auslöserknopf setzte die Wahrheitsbildgebung in Kraft, auch wenn der Ausschnitt, die Belichtung oder die Schärfe die Darstellung der Szene verändert. Mit der digitalen Fotografie hat sich das Misstrauen in das fotografische Bild extrem verstärkt - zu Recht. Zwar konnten auch schon zuvor Bilder manipuliert werden, nicht nur mit Nachbearbeitung, sondern auch, was überhaupt aufgenommen und wie das Bild beschrieben wird, digital ist aber das Foto bestenfalls Ausgangsbasis für Verabeitungen. Mit Mitteln der Künstlichen Intelligenz lassen sich fotorealistische Fakes noch leichter bewerkstelligen. Ein Bild ist kein Beweis für etwas Wirkliches mehr, sondern nur noch ein - auch bewegtes - Bild, das ebenso wenig oder viel Glaubwürdigkeit hat wie beispielsweise ein Text. Vertrauen muss in die Quelle gesetzt werden, die Bilder oder Texte produziert und verbreitet. Deepfakes nennt man fotorealistische Bilder und Videos, die manipuliert sind. Das Problem ist, dass diese immer leichter herstellbaren verfälschten Bilder auch als Belege für politische Zwecke verwendet werden können. Noch immer glauben viele traditionsverhaftet eher scheinbar objektiv generierten Bildern als etwa Texten. Die seit Februar existierende Website ThisPersonDoesNotExist.com zeigt, wie leicht wir getäuscht werden können. Mit der Hilfe des KI-Algorithmus StyleGAN von Nvidia wird hier demonstriert, wie täuschend realistische Bilder von Personen erzeugt werden können, die es nicht gibt. Dabei konkurrieren gewissermaßen zwei neuronale Netze, die mit Bildern von Gesichtern von Prominenten und von Menschen auf Flickr gefüttert wurden, gegeneinander an.