Search (15 results, page 1 of 1)

  • × author_ss:"Rötzer, F."
  • × year_i:[2010 TO 2020}
  1. Rötzer, F.: Sozialkreditsysteme im Kapitalismus (2019) 0.01
    0.005055666 = product of:
      0.038760107 = sum of:
        0.012662571 = weight(_text_:und in 5826) [ClassicSimilarity], result of:
          0.012662571 = score(doc=5826,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.24241515 = fieldWeight in 5826, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5826)
        0.020597974 = weight(_text_:im in 5826) [ClassicSimilarity], result of:
          0.020597974 = score(doc=5826,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 5826, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5826)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 5826) [ClassicSimilarity], result of:
              0.010999122 = score(doc=5826,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 5826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5826)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Extralegale Bestrafungssysteme: China will ehrliches Verhalten durch Überwachung, Bestrafung und Privilegien konditionieren, im Kapitalismus werden Privilegien bislang durch Geld reguliert. 2014 hat China begonnen, sein Sozialkreditsystem einzuführen, geplant ist die grundsätzliche Umsetzung bis 2020. Ab dann werden auch alle Unternehmen durch Zusammenfassung vorhandener Daten nach Punkten bewertet, auch die ausländischen. So könnten die auch politisch angepassten Unternehmen mit einer geringeren Steuer, weniger Auflagen und Staatsaufträgen belohnt werden. Man braucht allerdings auch nicht nur mit dem Finger auf China zu zeigen. In Deutschland gibt es mit dem privatwirtschaftlichen Unternehmen Schufa schon lange ein solches Scoring-System zur Bonitätsprüfung mit durchaus folgenschweren Sanktionen.
    Date
    1. 9.2019 19:33:21
  2. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.004680055 = product of:
      0.035880424 = sum of:
        0.017723909 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.017723909 = score(doc=4217,freq=24.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.33931053 = fieldWeight in 4217, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.011770271 = weight(_text_:im in 4217) [ClassicSimilarity], result of:
          0.011770271 = score(doc=4217,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 4217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.006386244 = product of:
          0.012772488 = sum of:
            0.012772488 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.012772488 = score(doc=4217,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
    Source
    https://www.heise.de/tp/features/KI-Programm-besser-als-Menschen-im-Verstaendnis-natuerlicher-Sprache-3941786.html?view=print
  3. Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019) 0.00
    0.004623066 = product of:
      0.035443507 = sum of:
        0.013292931 = weight(_text_:und in 5697) [ClassicSimilarity], result of:
          0.013292931 = score(doc=5697,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.2544829 = fieldWeight in 5697, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5697)
        0.012484257 = weight(_text_:im in 5697) [ClassicSimilarity], result of:
          0.012484257 = score(doc=5697,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 5697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5697)
        0.009666322 = product of:
          0.019332644 = sum of:
            0.019332644 = weight(_text_:29 in 5697) [ClassicSimilarity], result of:
              0.019332644 = score(doc=5697,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23319192 = fieldWeight in 5697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5697)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Wissenschaftler wollen herausgefunden haben, dass das wichtige Ranking nach Zitierhäufigkeit und dem Journal Impact Factor fehlerhaft ist. Man sollte ja denken, dass Programme, seien sie nun KI-gestützt oder nicht, vorurteilslos nach bestimmten Kriterien etwa ein Ranking erstellen können. Aber es kommen immer wieder unbedachte Einflüsse ins Spiel, die lange Zeit unbemerkt bleiben können. Bei KI-Programmen ist in letzter Zeit klar geworden, dass die Datenauswahl eine verzerrende Rolle spielen kann, die zu seltsamen Ergebnissen führt.
    Content
    "Aber warum werden Titel mit Bindestrichen weniger häufig zitiert? Die Wissenschaftler vermuten, dass Autoren, wenn sie einen Artikel zitieren, möglicherweise übersehen, Bindestriche anzugeben. Dann kann in den Datenbanken keine Verlinkung mit dem Artikel mit Bindestrichen im Titel hergestellt werden, weswegen der Zitationsindex falsch wird. Das Problem scheint sich bei mehreren Bindestrichen zu verstärken, die die Irrtumshäufigkeit der Menschen erhöhen. Dass die Länge der Titel etwas mit der Zitationshäufigkeit zu tun hat, bestreiten die Wissenschaftler. Längere Titel würden einfach mit höherer Wahrscheinlichkeit mehr Bindestriche enthalten - und deswegen weniger häufig wegen der Bindestrichfehler zitiert werden. Und Artikel mit Bindestrichen sollen auch den JIF von Wissenschaftsjournalen senken."
    Date
    29. 6.2019 17:46:17
  4. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.00
    0.0028236997 = product of:
      0.032472547 = sum of:
        0.01790758 = weight(_text_:und in 3977) [ClassicSimilarity], result of:
          0.01790758 = score(doc=3977,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 3977, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
        0.014564968 = weight(_text_:im in 3977) [ClassicSimilarity], result of:
          0.014564968 = score(doc=3977,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.08695652 = coord(2/23)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  5. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.00
    0.0026518605 = product of:
      0.030496396 = sum of:
        0.017723909 = weight(_text_:und in 4427) [ClassicSimilarity], result of:
          0.017723909 = score(doc=4427,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.33931053 = fieldWeight in 4427, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4427)
        0.012772488 = product of:
          0.025544977 = sum of:
            0.025544977 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.025544977 = score(doc=4427,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.5 = coord(1/2)
      0.08695652 = coord(2/23)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  6. Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017) 0.00
    0.0025730645 = product of:
      0.029590242 = sum of:
        0.019186692 = weight(_text_:und in 5243) [ClassicSimilarity], result of:
          0.019186692 = score(doc=5243,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3673144 = fieldWeight in 5243, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
        0.010403548 = weight(_text_:im in 5243) [ClassicSimilarity], result of:
          0.010403548 = score(doc=5243,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 5243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
      0.08695652 = coord(2/23)
    
    Abstract
    Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
    Source
    https://www.heise.de/tp/features/Brauchen-Roboter-eine-Ethik-und-handeln-Menschen-moralisch-3876309.html?wt_mc=nl.tp-aktuell.woechentlich
  7. Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017) 0.00
    0.002000469 = product of:
      0.023005392 = sum of:
        0.010232903 = weight(_text_:und in 3978) [ClassicSimilarity], result of:
          0.010232903 = score(doc=3978,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.19590102 = fieldWeight in 3978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3978)
        0.012772488 = product of:
          0.025544977 = sum of:
            0.025544977 = weight(_text_:22 in 3978) [ClassicSimilarity], result of:
              0.025544977 = score(doc=3978,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.30952093 = fieldWeight in 3978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3978)
          0.5 = coord(1/2)
      0.08695652 = coord(2/23)
    
    Abstract
    Der mit viel Wissen gefütterte Roboter soll ab nächstem Jahr bei der Diagnose und der Ausbildung von Ärzten helfen. Vor einigen Tagen meldete China Daily, dass ein chinesischer Roboter weltweit als erster die nationale Medizinprüfung bestanden habe. Das ist ein wichtiger Test, der bestanden werden muss, um in China als Arzt anerkannt zu werden. Die Fragen ändern sich jährlich.
    Issue
    [22. November 2017].
  8. Rötzer, F.: Umgekehrter Turing-Test : Welches Gesicht ist real? (2019) 0.00
    0.0017185715 = product of:
      0.019763572 = sum of:
        0.011440733 = weight(_text_:und in 5262) [ClassicSimilarity], result of:
          0.011440733 = score(doc=5262,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.219024 = fieldWeight in 5262, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5262)
        0.008322839 = weight(_text_:im in 5262) [ClassicSimilarity], result of:
          0.008322839 = score(doc=5262,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.12492748 = fieldWeight in 5262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5262)
      0.08695652 = coord(2/23)
    
    Content
    Fotografie wurde seit ihrem Beginn wegen ihrer Entsubjektivierung gefeiert. Im Unterschied zur Malerei von der Bildherstellung durch den Apparat und die Lichtmalerei ersetzt wird. Deswegen wurde Fotografie als objektives Medium verherrlicht. Was von dem Objektiv aufgenommen wurde, soll es da auch gegeben haben. Der Druck auf den Auslöserknopf setzte die Wahrheitsbildgebung in Kraft, auch wenn der Ausschnitt, die Belichtung oder die Schärfe die Darstellung der Szene verändert. Mit der digitalen Fotografie hat sich das Misstrauen in das fotografische Bild extrem verstärkt - zu Recht. Zwar konnten auch schon zuvor Bilder manipuliert werden, nicht nur mit Nachbearbeitung, sondern auch, was überhaupt aufgenommen und wie das Bild beschrieben wird, digital ist aber das Foto bestenfalls Ausgangsbasis für Verabeitungen. Mit Mitteln der Künstlichen Intelligenz lassen sich fotorealistische Fakes noch leichter bewerkstelligen. Ein Bild ist kein Beweis für etwas Wirkliches mehr, sondern nur noch ein - auch bewegtes - Bild, das ebenso wenig oder viel Glaubwürdigkeit hat wie beispielsweise ein Text. Vertrauen muss in die Quelle gesetzt werden, die Bilder oder Texte produziert und verbreitet. Deepfakes nennt man fotorealistische Bilder und Videos, die manipuliert sind. Das Problem ist, dass diese immer leichter herstellbaren verfälschten Bilder auch als Belege für politische Zwecke verwendet werden können. Noch immer glauben viele traditionsverhaftet eher scheinbar objektiv generierten Bildern als etwa Texten. Die seit Februar existierende Website ThisPersonDoesNotExist.com zeigt, wie leicht wir getäuscht werden können. Mit der Hilfe des KI-Algorithmus StyleGAN von Nvidia wird hier demonstriert, wie täuschend realistische Bilder von Personen erzeugt werden können, die es nicht gibt. Dabei konkurrieren gewissermaßen zwei neuronale Netze, die mit Bildern von Gesichtern von Prominenten und von Menschen auf Flickr gefüttert wurden, gegeneinander an.
  9. Rötzer, F.: Mit Neurotechniken werden sich Absichten, Gefühle und Entscheidungen manipulieren lassen (2017) 0.00
    0.0011010931 = product of:
      0.025325142 = sum of:
        0.025325142 = weight(_text_:und in 3989) [ClassicSimilarity], result of:
          0.025325142 = score(doc=3989,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4848303 = fieldWeight in 3989, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3989)
      0.04347826 = coord(1/23)
    
    Abstract
    Nach den KI- und den Robotikwissenschaftlern haben sich nun auch Neurowissenschaftler und -techniker sowie Ethiker und Mediziner in die Reihen der Experten eingereiht, die vor Entwicklungen aus ihrer Forschung warnen und letztlich die Gesellschaft bzw. die Politik auffordern, nicht alles einfach wild weiterlaufen zu lassen und auch zu finanzieren, sondern die Entwicklung zu steuern oder auch zu begrenzen. Verwiesen wird auf die großen Investitionen, die von der Privatwirtschaft wie von Kernel oder Elon Musk oder vom Staat mit der US Brain Initiative oder von der Darpa gemacht wurden und werden.
    Source
    https://www.heise.de/tp/features/Mit-Neurotechniken-werden-sich-Absichten-Gefuehle-und-Entscheidungen-manipulieren-lassen-3888449.html?wt_mc=nl.tp-aktuell.woechentlich
  10. Rötzer, F.: Pentagon will wissenschaftliche Forschung durch KI-Systeme ersetzen (2018) 0.00
    7.864951E-4 = product of:
      0.018089388 = sum of:
        0.018089388 = weight(_text_:und in 3631) [ClassicSimilarity], result of:
          0.018089388 = score(doc=3631,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34630734 = fieldWeight in 3631, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3631)
      0.04347826 = coord(1/23)
    
    Abstract
    Die Darpa sucht nach Vorschlägen, wie KI-Systeme selbst Daten sammeln, Hypothesen entwicklen, Modelle erzeugen und überprüfen können - und das möglichst schnell.
  11. Rötzer, F.: Wettkampf mit Robotern entmutigt Menschen (2019) 0.00
    7.7859045E-4 = product of:
      0.01790758 = sum of:
        0.01790758 = weight(_text_:und in 5213) [ClassicSimilarity], result of:
          0.01790758 = score(doc=5213,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 5213, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5213)
      0.04347826 = coord(1/23)
    
    Abstract
    Wenn Maschinen besser sind, mögen die Menschen sie weniger und sinkt ihr Selbstvertrauen sowie ihre Leistungsmotivation. Schon vor 60 Jahren hatte der Philosoph Günther Anders die "Antiquiertheit des Menschen" gegenüber der Perfektion seiner Produkte festgestellt und von der dadurch ausgelösten "prometheischen Scham" gesprochen. Dabei waren die Maschinen und Produkte in den 1950er Jahren nicht besonders smart, auch wenn damals für Anders die Atombombe gezeigt hatte, dass die Menschen damit das Ende ihrer Geschichte selbst bereiten können. In den 1950er Jahren schwärmte man noch zukunftsbesoffen von den Möglichkeiten der für den Bau der Atombombe entwickelten Computer und sah die "Elektronengehirne" schon kurz davor, schlauer als die Menschen zu werden. Die Dartmouth Conference (1956) etablierte das Forschungsgebiet der Künstlichen Intellgenz.
  12. Rötzer, F.: Bei zu vielen Optionen bockt das Gehirn (2018) 0.00
    6.8112474E-4 = product of:
      0.015665868 = sum of:
        0.015665868 = weight(_text_:und in 4982) [ClassicSimilarity], result of:
          0.015665868 = score(doc=4982,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29991096 = fieldWeight in 4982, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4982)
      0.04347826 = coord(1/23)
    
    Abstract
    Wissenschaftler haben untersucht, wie viele Optionen für eine Auswahlentscheidung das menschliche Gehirn am besten findet. Wenn man Menschen in Verwirrung oder Apathie stürzen will, dürfte es eine gute Strategie sein, sie mit Information zu überladen. Das könnte eines der Geheimnisse unseres kapitalistischen Systems sein, das schon während des Kalten Kriegs zwischen dem Westen und dem kommunistischen System deswegen attraktiver war, weil es mit einer Flut an Waren und Informationen die Menschen verführte. Während die Menschen in den liberalen kapitalistischen Ländern davon sediert wurden, was Herbert Marcuse etwa als affirmative Kultur der Überflussgesellschaft bezeichnete, wuchs in den realkommunistischen Ländern mit geringer Auswahl der Wunsch nach mehr Vielfalt und Buntheit. In der kapitalistischen Warenwelt jedenfalls sind die Menschen konfrontiert mit einer Vielzahl von Möglichkeiten von der Politik über die Medien bis hin zu Waren und Dienstleistungen. Das kann mitunter dazu führen, aufgrund der Überforderung und des Zeitstresses keine Entscheidung zu treffen oder sich nach einem einfachen Kriterium für irgendetwas zu entscheiden, beispielsweise nach dem Preis, was wohl am einfachsten ist, weswegen Geiz eben geil ist. Choice overload nennt man das Problem oder auch Auswahl-Paradoxon. Das interessiert auch deswegen, weil der potenzielle Kunde aufgrund von zu viel Auswahl weniger kaufen oder den Kauf verschieben könnte, weil seine Kauflust schwindet oder er den Eindruck erhält, sich immer falsch zu entscheiden, wie wenn man in Stau steht und stets das Gefühl hat auf der falschen Spur zu fahren.
  13. Rötzer, F.: Umfrage: "Junge Generation will menschliche Interaktion vermeiden" (2018) 0.00
    6.742791E-4 = product of:
      0.015508419 = sum of:
        0.015508419 = weight(_text_:und in 4503) [ClassicSimilarity], result of:
          0.015508419 = score(doc=4503,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.2968967 = fieldWeight in 4503, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4503)
      0.04347826 = coord(1/23)
    
    Abstract
    Junge Menschen würden eher Aufgaben in der Arbeit an Roboter delegieren. Frage ist, was das bedeutet: Mangel an Kompetenz oder Widerstand gegen die alte Arbeitswelt? Wir sind es mittlerweile gewöhnt, mit digitalen Assistenten zu sprechen, und wir richten unsere Wohnungen für den Saugroboter ein, der möglichst freie Fahrt haben soll. Auch ansonsten wandern technische Aliens in unsere Alltagswelt ein, vor denen wir offenbar weniger Angst entwickeln als vor Zuwanderern, obgleich die Roboter und KI-Systeme uns garantiert Arbeitsplätze streitig machen werden. Roboter ziehen auch in die zwischenmenschlichen Beziehungen ein, Sexroboter machen Prostituierten bereits Konkurrenz und ersetzen womöglich den menschlichen Geschlechtspartner.
  14. Rötzer, F.: Jeder sechste Deutsche findet ein Social-Scoring-System nach chinesischem Vorbild gut (2019) 0.00
    6.21779E-4 = product of:
      0.014300916 = sum of:
        0.014300916 = weight(_text_:und in 4551) [ClassicSimilarity], result of:
          0.014300916 = score(doc=4551,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27378 = fieldWeight in 4551, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4551)
      0.04347826 = coord(1/23)
    
    Content
    Wenn die Umfrageergebnisse, die von YouGov und dem SINUS-Institut erhoben wurden, zutreffen, dann lehnen über zwei Drittel der Deutschen ein solches staatliches Bewertungs- und Steuerungssystem ab. 15 Prozent haben dazu keine Meinung, lehnen es also nicht rundweg ab. Erstaunlich aber ist, dass 17 Prozent, also fast jeder Sechste das sogar begrüßen würde. Gefragt wurden 2.036 Personen ab 18 Jahren. Die Befragung soll repräsentativ sein. 40 Prozent fänden die Möglichkeit gut, die Menschen in ihrer Umgebung bewerten zu können, 39 Prozent würden sich auch selbst von anderen bewerten lassen. In der Fragestellung wurde als Beispiel vorgeschlagen, für Unfreundlichkeit Minuspunkte oder für Freundlichkeit Pluspunkte zu vergeben. Da schlägt wahrscheinlich auch durch, dass die meisten Menschen die allerorten praktizierte Bewertung, das Ranking/Scoring von diesem und jenem, einschließlich seiner selbst gegenüber anderen, und die Quantifizierung des eigenen Lebens schon übernommen haben. Dazu kommt, dass die Überwachung des finanziellen und digitalen Verhaltens zu einer Wurstigkeit geführt hat, der Schutz der Privatsphäre hat für viele aufgrund der Vorteile keine besondere Bedeutung mehr, die Transparenz des persönlichen Lebens wird als Schicksal erlebt, zumindest so lange man überzeugt ist, nichts verbergen zu müssen.
  15. Rötzer, F.: Auf dem Weg zum "maschinellen Selbstbewusstsein" (2019) 0.00
    5.561361E-4 = product of:
      0.012791129 = sum of:
        0.012791129 = weight(_text_:und in 4974) [ClassicSimilarity], result of:
          0.012791129 = score(doc=4974,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.24487628 = fieldWeight in 4974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4974)
      0.04347826 = coord(1/23)
    
    Abstract
    Wissenschaftler stellen weiche Robotern mit weichen Sensoren mit Selbstbild her und einen Roboterarm mit angeblich rudimentärem Selbstbewusstsein.