Search (2 results, page 1 of 1)

  • × theme_ss:"Informationsethik"
  • × author_ss:"Rötzer, F."
  1. Rötzer, F.: Mit Neurotechniken werden sich Absichten, Gefühle und Entscheidungen manipulieren lassen (2017) 0.01
    0.008462295 = product of:
      0.050773766 = sum of:
        0.050773766 = weight(_text_:und in 3989) [ClassicSimilarity], result of:
          0.050773766 = score(doc=3989,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4848303 = fieldWeight in 3989, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3989)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach den KI- und den Robotikwissenschaftlern haben sich nun auch Neurowissenschaftler und -techniker sowie Ethiker und Mediziner in die Reihen der Experten eingereiht, die vor Entwicklungen aus ihrer Forschung warnen und letztlich die Gesellschaft bzw. die Politik auffordern, nicht alles einfach wild weiterlaufen zu lassen und auch zu finanzieren, sondern die Entwicklung zu steuern oder auch zu begrenzen. Verwiesen wird auf die großen Investitionen, die von der Privatwirtschaft wie von Kernel oder Elon Musk oder vom Staat mit der US Brain Initiative oder von der Darpa gemacht wurden und werden.
    Source
    https://www.heise.de/tp/features/Mit-Neurotechniken-werden-sich-Absichten-Gefuehle-und-Entscheidungen-manipulieren-lassen-3888449.html?wt_mc=nl.tp-aktuell.woechentlich
  2. Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017) 0.01
    0.0064111557 = product of:
      0.038466934 = sum of:
        0.038466934 = weight(_text_:und in 5243) [ClassicSimilarity], result of:
          0.038466934 = score(doc=5243,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3673144 = fieldWeight in 5243, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
      0.16666667 = coord(1/6)
    
    Abstract
    Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
    Source
    https://www.heise.de/tp/features/Brauchen-Roboter-eine-Ethik-und-handeln-Menschen-moralisch-3876309.html?wt_mc=nl.tp-aktuell.woechentlich

Types