Search (11 results, page 1 of 1)

  • × theme_ss:"Informationsethik"
  • × year_i:[2010 TO 2020}
  1. Helbing, D.: ¬Das große Scheitern (2019) 0.05
    0.05321877 = product of:
      0.10643754 = sum of:
        0.035534237 = weight(_text_:und in 5599) [ClassicSimilarity], result of:
          0.035534237 = score(doc=5599,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 5599, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5599)
        0.045296054 = weight(_text_:des in 5599) [ClassicSimilarity], result of:
          0.045296054 = score(doc=5599,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 5599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5599)
        0.025607252 = product of:
          0.051214505 = sum of:
            0.051214505 = weight(_text_:22 in 5599) [ClassicSimilarity], result of:
              0.051214505 = score(doc=5599,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30952093 = fieldWeight in 5599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5599)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    2015 warnte das »DigitalManifest« in »Spektrum der Wissenschaft« vor Verhaltensmanipulation und heraufziehender Datendiktatur. Demokratie und Menschenrechte seien in Gefahr. Es wurde ein neuer Ansatz bei der Digitalisierung gefordert. Wenngleich es auch Fortschritte gab, muss dringend gewarnt werden. Die Gefahr des technologischen Totalitarismus ist keineswegs gebannt. In Zeiten des Klimawandels ist er wahrscheinlicher denn je.
    Date
    25.12.2019 14:19:22
    Series
    Startseite - IT/Tech - Aktuelle Seite: Digitalisierung und Umweltschutz:
  2. Rösch, H.: Bibliothekarische Berufsethik auf nationaler und internationaler Ebene : Struktur und Funktion des IFLA-Ethikkodex (2014) 0.03
    0.033781692 = product of:
      0.10134508 = sum of:
        0.053301353 = weight(_text_:und in 816) [ClassicSimilarity], result of:
          0.053301353 = score(doc=816,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.5089658 = fieldWeight in 816, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=816)
        0.04804372 = weight(_text_:des in 816) [ClassicSimilarity], result of:
          0.04804372 = score(doc=816,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 816, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=816)
      0.33333334 = coord(2/6)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 67(2014) H.1, S.38-57
  3. Rötzer, F.: Mit Neurotechniken werden sich Absichten, Gefühle und Entscheidungen manipulieren lassen (2017) 0.01
    0.008462295 = product of:
      0.050773766 = sum of:
        0.050773766 = weight(_text_:und in 3989) [ClassicSimilarity], result of:
          0.050773766 = score(doc=3989,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4848303 = fieldWeight in 3989, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3989)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach den KI- und den Robotikwissenschaftlern haben sich nun auch Neurowissenschaftler und -techniker sowie Ethiker und Mediziner in die Reihen der Experten eingereiht, die vor Entwicklungen aus ihrer Forschung warnen und letztlich die Gesellschaft bzw. die Politik auffordern, nicht alles einfach wild weiterlaufen zu lassen und auch zu finanzieren, sondern die Entwicklung zu steuern oder auch zu begrenzen. Verwiesen wird auf die großen Investitionen, die von der Privatwirtschaft wie von Kernel oder Elon Musk oder vom Staat mit der US Brain Initiative oder von der Darpa gemacht wurden und werden.
    Source
    https://www.heise.de/tp/features/Mit-Neurotechniken-werden-sich-Absichten-Gefuehle-und-Entscheidungen-manipulieren-lassen-3888449.html?wt_mc=nl.tp-aktuell.woechentlich
  4. Niedermair, K.: Gefährden Suchmaschinen und Discovery-Systeme die informationelle Autonomie? (2014) 0.01
    0.0072533954 = product of:
      0.043520372 = sum of:
        0.043520372 = weight(_text_:und in 811) [ClassicSimilarity], result of:
          0.043520372 = score(doc=811,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 811, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=811)
      0.16666667 = coord(1/6)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 67(2014) H.1, S.109-125
  5. Rösch, H.: Ethische Konflikte und Dilemmata im bibliothekarischen Alltag (2014) 0.01
    0.0072533954 = product of:
      0.043520372 = sum of:
        0.043520372 = weight(_text_:und in 1511) [ClassicSimilarity], result of:
          0.043520372 = score(doc=1511,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 1511, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1511)
      0.16666667 = coord(1/6)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 67(2014) H.1, S.15-32
  6. Helbing, D.; Frey, B.S.; Gigerenzer, G.; Hafen, E.; Hagner, M.; Hofstetter, Y.; Hoven, J. van den; Zicari, R.V.; Zwitter, A.: Digitale Demokratie statt Datendiktatur : Digital-Manifest (2016) 0.01
    0.0072533954 = product of:
      0.043520372 = sum of:
        0.043520372 = weight(_text_:und in 5600) [ClassicSimilarity], result of:
          0.043520372 = score(doc=5600,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 5600, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5600)
      0.16666667 = coord(1/6)
    
    Abstract
    Big Data, Nudging, Verhaltenssteuerung: Droht uns die Automatisierung der Gesellschaft durch Algorithmen und künstliche Intelligenz? Ein Appell zur Sicherung von Freiheit und Demokratie.
    Content
    Neun internationale Experten warnen vor der Aushöhlung unserer Bürgerrechte und der Demokratie im Zuge der digitalen Technikrevolution. Wir steuern demnach geradewegs auf die Automatisierung unserer Gesellschaft und die Fernsteuerung ihrer Bürger durch Algorithmen zu, in denen sich »Big Data« und »Nudging«-Methoden zu einem mächtigen Instrument vereinen. Erste Ansätze dazu lassen sich bereits in China und Singapur beobachten. Ein Zehnpunkteplan soll helfen, jetzt die richtigen Weichen zu stellen, um auch im digitalen Zeitalter Freiheitsrechte und Demokratie zu bewahren und die sich ergebenden Chancen zu nutzen. Vgl. auch das Interview mit D. Helbing zur Resonanz unter: http://www.spektrum.de/news/wie-social-bots-den-brexit-verursachten/1423912. Vgl. auch: https://www.spektrum.de/kolumne/das-grosse-scheitern/1685328.
  7. Misselhorn, C.: Grundfragen der Maschinenethik (2019) 0.01
    0.0067849304 = product of:
      0.04070958 = sum of:
        0.04070958 = weight(_text_:und in 5237) [ClassicSimilarity], result of:
          0.04070958 = score(doc=5237,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38872904 = fieldWeight in 5237, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5237)
      0.16666667 = coord(1/6)
    
    Abstract
    Maschinen werden immer selbständiger, autonomer, intelligenter. Ihr Vormarsch ist kaum mehr zu stoppen. Dabei geraten sie in Situationen, die moralische Entscheidungen verlangen. Doch können Maschinen überhaupt moralisch handeln, sind sie moralische Akteure - und dürfen sie das? Mit diesen und ähnlichen Fragen beschäftigt sich der völlig neue Ansatz der Maschinenethik. Catrin Misselhorn erläutert die Grundlagen dieser neuen Disziplin an der Schnittstelle von Philosophie, Informatik und Robotik sachkundig und verständlich, etwa am Beispiel von autonomen Waffensystemen, Pflegerobotern und autonomem Fahren: das grundlegende Buch für die neue Disziplin. Intelligente Maschinen, die nicht nur ungeliebte und kräftezehrende Arbeiten verrichten, sondern als Pflegeroboter, Autos und Cyberwaffen in enger Verbindung zum Menschen stehen bis hin zur Kriegsführung benötigen ein Handlungskorsett, eine moralische Richtschnur ihres Handelns.
  8. Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017) 0.01
    0.0064111557 = product of:
      0.038466934 = sum of:
        0.038466934 = weight(_text_:und in 5243) [ClassicSimilarity], result of:
          0.038466934 = score(doc=5243,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3673144 = fieldWeight in 5243, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
      0.16666667 = coord(1/6)
    
    Abstract
    Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
    Source
    https://www.heise.de/tp/features/Brauchen-Roboter-eine-Ethik-und-handeln-Menschen-moralisch-3876309.html?wt_mc=nl.tp-aktuell.woechentlich
  9. Dreisiebner, S.: Informationskompetenz und Demokratie : Umwälzungen der IK-Förderung im Zuge der Digitalisierung (2019) 0.01
    0.005922373 = product of:
      0.035534237 = sum of:
        0.035534237 = weight(_text_:und in 5446) [ClassicSimilarity], result of:
          0.035534237 = score(doc=5446,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 5446, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5446)
      0.16666667 = coord(1/6)
    
    Abstract
    1. Was ist Informationskompetenz? Was macht Informationskompetenz ist Kern aus? Wie weit greift sie, wo endet sie? Inwiefern spielt Informationskompetenz mit weiteren Kompetenzen zusammen? 2. Wie soll man Informationskompetenz vermitteln? Wie soll Informationskompetenz am besten vermittelt werden? Wie werden Menschen am besten zu informationskompetentem Verhalten motiviert und geführt? 3. Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? Wie entwickelt sich Informationskompetenz? Welche Bereiche werden künftig wichtiger?
  10. Betz, F.: Informationsethik als Diskursethik (2014) 0.01
    0.0051289247 = product of:
      0.030773548 = sum of:
        0.030773548 = weight(_text_:und in 992) [ClassicSimilarity], result of:
          0.030773548 = score(doc=992,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=992)
      0.16666667 = coord(1/6)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 67(2014) H.1, S.33-37
  11. Homan, P.A.: Library catalog notes for "bad books" : ethics vs. responsibilities (2012) 0.00
    0.0026674224 = product of:
      0.016004534 = sum of:
        0.016004534 = product of:
          0.03200907 = sum of:
            0.03200907 = weight(_text_:22 in 420) [ClassicSimilarity], result of:
              0.03200907 = score(doc=420,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.19345059 = fieldWeight in 420, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=420)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    27. 9.2012 14:22:00