Search (17 results, page 1 of 1)

  • × author_ss:"Rötzer, F."
  1. Rötzer, F.: Internet ist überlebensnotwendig (2001) 0.04
    0.04084402 = product of:
      0.061266027 = sum of:
        0.027027493 = weight(_text_:im in 6481) [ClassicSimilarity], result of:
          0.027027493 = score(doc=6481,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 6481, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6481)
        0.034238536 = product of:
          0.051357802 = sum of:
            0.02202896 = weight(_text_:online in 6481) [ClassicSimilarity], result of:
              0.02202896 = score(doc=6481,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.142261 = fieldWeight in 6481, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6481)
            0.029328842 = weight(_text_:22 in 6481) [ClassicSimilarity], result of:
              0.029328842 = score(doc=6481,freq=4.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16414827 = fieldWeight in 6481, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6481)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Content
    "Im Rahmen der von EMNID im Auftrag von AOL durchgeführten "ePeople-Studien" ging es bei der jüngsten Befragung um das Therna "Kinder und Internet". Berragt wurden 1.500 Haushalte über die Nutzung des Internet. Das Ergebnis, daß mittlerweile die Mehrzahl der 6- bis 18Jährigen bereits das Internet nutzen, wird dabei ebenso wenig überraschen wie der Umstand, daß die Eltern den Umgang mit ihm geradezu für überlebensnotwendig erachten. Möglicherweise war es ja nur ein Versehen, daß die Befragung "Kinder und das Internet - Nachwuchs für das World Wide Web" genannt wurde. Da glaubt man sich gleich in den Bereich der Memetik versetzt, da auch bei dieser Theorie davon ausgegangen wird, daß nicht etwa Menschen Bücher oder sonst etwas suchen, sondern Bücher oder Bibliotheken wie Parasiten die Menschen infizieren, um sich in deren Geist als Mein zu reproduzieren. Von Memetik haben aber vielleicht so viele noch gar nichts gehört, weswegen man vermuten darf, daß mit der Studie zugleich für die schöne, neue und saubere Welt des Web geworben werden soll, die wahrscheinlich noch besser unter den Fittichen von AOL zu finden ist. Dunkle oder kritische Aspekte wird man bei dieser Befragung nicht finden. Es sei denn, man legt die Ergebnisse gewissermaßen gegen die Intention aus. Wenn so etwa 73 Prozent der Befragten, was, hochgerechnet, die Meinung von 46,6 Millionen Bundesbürgern über 14 Jahre wäre, dem Satz zustimmen, daß sich "nur mit einem sicheren Internet-Umgang Kinder auf dem Arbeitsmarkt der Zukunft behaupten" werden, dann fehlen da möglicherweise nicht nur Auswahlmöglichkeiten, sondern kann man auch einen ungeheuren Anpassungsdruck erkennen. Wer nicht drin ist, ist draußen. Gute Arbeit haben da Politiker, Unternehmer und Ideologen geleistet. 74 Prozent der Befragten haben übrigens keine Kinder (mehr) im Haushalt, allerdings sind davon wieder 83 Prozent zwischen 14 und 29 Jahre alt.
    Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
    Dafür erledigen jedenfalls angeblich 6,6 Millionen (66 Prozent) dieser sonst oft so gar nicht aufs Lernen erpichten Altersgruppe mit der Hilfe des Internet ihre Hausaufgaben oder bereiten sich auf den Unterricht vor, wobei die Mädceen etwas eifriger zu sein scheinen, Aber natürlich wird auch herumgesurft (71 Prozent), gespielt oder Spiele heruntergeladen (50 Prozent), Musik gehört oder heruntergeladen (37 Prozent). Ganz wichtig ist auch Kommunikation, also Emails (60%), Chatten (36%) oder SMS (47%) verschicken, während das "Ansehen von Finnen" (7 Prozent) etwas kurz gerät. Ob man das als Multitasking auslegen will oder nicht, so scheinen die Kinder und Jugendlichen während der Internetnutzung nicht nur Musik zu hören oder mit Freunden zusammen zu sein, sondern auch zu fernsehen, zu telefonieren, zu essen und zu trinken, zu lesen oder Hausaufgaben zu machen. Manche dieser Kombinationen ist denn schon erstaunlich. Ob die 71 Prozent, bei denen angegeben wurde, sie würden zusammen mit Freunden online gehen, dies auch immer so machen, darf doch bezweifelt werden. AOL sieht das jedoch lieber so: "Entgegen weitverbreiteter Vorurteile verzichten sie auch nicht auf die Gesellschaft anderer: 71 Prozent der Kinder und Jugendlichen surfen gemeinsam mit Freunden oder nutzen das Medium zu Kontaktaufbau und -pflege." Mit der Intemetnutzung reduziert sich auch die Zeit, die noch für andere Medien da ist. Das mag nicht so tragisch sein, wenn dafür wenige oft die Glotze (26%) oder der Radio (2 1 %) läuft, klingt aber schon nicht mehr so toll, wenn dies auch die "Nutzung" von Büchern (25%) und Zeitschriften (21%) betrifft. Bei fast 50 Prozent habe die Internetnutzung hingegen nicht zu einer Reduzierung der Zeit geführt, die für andere Medien verwendet wird."
    Date
    21. 6.2005 21:22:09
  2. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.02
    0.023132622 = product of:
      0.034698933 = sum of:
        0.025481766 = weight(_text_:im in 4217) [ClassicSimilarity], result of:
          0.025481766 = score(doc=4217,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.17667414 = fieldWeight in 4217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.009217165 = product of:
          0.027651496 = sum of:
            0.027651496 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.027651496 = score(doc=4217,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    22. 1.2018 11:32:44
    Source
    https://www.heise.de/tp/features/KI-Programm-besser-als-Menschen-im-Verstaendnis-natuerlicher-Sprache-3941786.html?view=print
  3. Rötzer, F.: Droht bei einer Verschmelzung des Gehirns mit KI der Verlust des Bewusstseins? (2020) 0.02
    0.015015274 = product of:
      0.045045823 = sum of:
        0.045045823 = weight(_text_:im in 5699) [ClassicSimilarity], result of:
          0.045045823 = score(doc=5699,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.3123187 = fieldWeight in 5699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Philosophin und Kognitionswissenschaftlerin Susan Schneider führt ungelöste Probleme für die Implantation von Chips im Gehirn zur kognitiven Optimierung an.
  4. Rötzer, F.: Sozialkreditsysteme im Kapitalismus (2019) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 5826) [ClassicSimilarity], result of:
          0.044593092 = score(doc=5826,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 5826, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5826)
      0.33333334 = coord(1/3)
    
    Abstract
    Extralegale Bestrafungssysteme: China will ehrliches Verhalten durch Überwachung, Bestrafung und Privilegien konditionieren, im Kapitalismus werden Privilegien bislang durch Geld reguliert. 2014 hat China begonnen, sein Sozialkreditsystem einzuführen, geplant ist die grundsätzliche Umsetzung bis 2020. Ab dann werden auch alle Unternehmen durch Zusammenfassung vorhandener Daten nach Punkten bewertet, auch die ausländischen. So könnten die auch politisch angepassten Unternehmen mit einer geringeren Steuer, weniger Auflagen und Staatsaufträgen belohnt werden. Man braucht allerdings auch nicht nur mit dem Finger auf China zu zeigen. In Deutschland gibt es mit dem privatwirtschaftlichen Unternehmen Schufa schon lange ein solches Scoring-System zur Bonitätsprüfung mit durchaus folgenschweren Sanktionen.
  5. Engel, B.; Rötzer, F.: Oberster Datenschützer und 73 Mio. Bürger ausgetrickst (2020) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 5954) [ClassicSimilarity], result of:
          0.044593092 = score(doc=5954,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 5954, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5954)
      0.33333334 = coord(1/3)
    
    Abstract
    "Datenrasterung". "Gläserner Versicherter". Jetzt äußert sich der Bundesdatenschutzbeauftragte zu dem ungeheuerlichen Vorgang. Es ist schlimmer, als bisher angenommen. Und es zeigt, welche Manöver die Bundesregierung unternommen hat, um Datenschutzrechte von 73 Millionen gesetzlich Versicherter auszuhebeln, ohne dass die betroffenen Bürger selbst davon erfahren. Aber das ist, wie sich jetzt herausstellt, noch nicht alles. Am Montag hatte Telepolis aufgedeckt, dass CDU/CSU und SPD mit Hilfe eines von der Öffentlichkeit unbemerkten Änderungsantrags zum EPA-Gesetz (Elektronische Patientenakte) das erst im November im Digitale-Versorgung-Gesetz (DVG) (Wie man Datenschutz als Versorgungsinnovation framet) festgeschriebene Einwilligungserfordernis zur individualisierten Datenauswertung durch die Krankenkassen still und leise wieder beseitigt haben (zur genauen Einordnung des aktuellen Vorgangs: EPA-Datengesetz - Sie haben den Affen übersehen).
  6. Rötzer, F.: ¬Das globale Gehirn : Eine Leitbotschaft (2005) 0.01
    0.01300361 = product of:
      0.03901083 = sum of:
        0.03901083 = weight(_text_:im in 3485) [ClassicSimilarity], result of:
          0.03901083 = score(doc=3485,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 3485, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3485)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Welt wird zu einem Dorf, in dem jeder jeden kennt und die Distanz keine Rolle mehr spielt. So versuchte der kanadische Pop-Medientheoretiker Marshall McLuhan in den 60er Jahren eine Welt zu begreifen, die schon im Vorinternet-Zeitalter durch die elektronischen Medien näher zusammenrückte. In der Tat, die Massenmedien Rundfunk und Fernsehen sowie das Telefon ermöglichten zunehmend über Satelliten- und Kabelverbindungen einen Informations- und Kommunikationsfluss, in dem die Entfernung des Raums aufgehoben wird und Informationen in Echtzeit von Menschen auf der ganzen Erde gesendet und empfangen werden können. Prinzipiell könnte damit jeder Ort auf dem Globus zu einem öffentlichen Platz werden, so dass die Weltöffentlichkeit im Augenblick des Geschehens dieses telepräsent beobachten könnte. Die seitdem möglich gewordene globale Öffentlichkeit gibt es aber nur in seltenen Ausnahmefällen, bei großen Ereignissen wie Kriegen, manchen Sportveranstaltungen oder Terroraktionen. Die Anschläge vom 11. September 2001 auf das World Trade Center in New York oder die Flutkatastrophe Ende 2004 in Asien waren solche globalen Ereignisse, die die kollektive Aufmerksamkeit aller Menschen, die Zugang zu Medien haben, in ihren Bann gezogen haben. Die Zuschauer, so weit sie auch entfernt sein mochten, wurden durch die Fernsehbilder am 11. September tatsächlich zu Augenzeugen der schrecklichen Geschehnisse. Gleichwohl ist diese Öffentlichkeit eine der Massenmedien und - im Extrem - die eines globalen, durch Massenmedien vermittelten Bewusstseins, während in der Regel und viel deutlicher mit dem Internet und/oder dem Mobilfunk die Informations- und Kommunikationsströme parallel und dezentral fließen. Das entspricht auch Ereignissen wie der Flutkatastrophe, die nicht wie Terroranschläge für die Kameras an einem überschaubaren Ort inszeniert werden, sondern in einem riesigen Gebiet stattfinden.
  7. Rötzer, F.: Virtueller Raum oder Weltraum? : Raumutopien des digitalen Zeitalters (1997) 0.01
    0.01300361 = product of:
      0.03901083 = sum of:
        0.03901083 = weight(_text_:im in 3180) [ClassicSimilarity], result of:
          0.03901083 = score(doc=3180,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 3180, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3180)
      0.33333334 = coord(1/3)
    
    Abstract
    Vor der Jahrtausendwende wachsen die Endzeit-Ängste. Man glaubt, über eine Schwelle in ein neues Zeitalter zu gehen, während das alte mit seinen Krisensymptomen hinter einem zusammenbricht. Das symbolische Datum eines Kalenders, der sich durch die Kolonialisierung weltweit verbreitet hat, aber der nichtsdestoweniger willkürlich ist, was die Zählung der Jahre seit dem Punkt Null betrifft, zieht die Menschen in den Bann. Auch ohne Erwähnung des symbolischen Datums wähnen wir uns - was seit der Moderne, die sich selbst diesen Namen gegeben hat, zur permanenten Sorge oder Hoffnung wurde - in einer Situation des fundamentalen Umbruchs. War man bis vor kurzem aber im postmodernen Klima der nuklearen Bedrohung und der Grenzen des Wachstums in einem versperrten Horizont mit dem Blick nach rückwärts eingefangen, der höchstens Zeremonien des Abschieds zuließ, die Intellektuellen zur Predigt der Nachgeschichte und Verdammung des Rationalismus brachte, der Esoterik und anderen Heilslehren zur Konjunktur verhalf und ansonsten nichts Neues versprach, so scheint allmählich das Technoimaginäre das Bewußtein der Menschen zu ergreifen und für neue Utopien zu sorgen. Eingesperrt im Wrack des Raumschiffs Erde sehnt man sich nach einem unbelasteten und freien Raum, der die utopischen Energien bindet, weil er noch leer ist und mit allen Erwartungen gefüllt werden kann. Anders als von vielen prophezeit, wird der Raum im Zeitalter der Virtualität erneut zur Obsession.
  8. Rötzer, F.: Sahra Wagenknecht über die Digitalisierung (1999) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 3951) [ClassicSimilarity], result of:
          0.031532075 = score(doc=3951,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 3951, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3951)
      0.33333334 = coord(1/3)
    
    Abstract
    Florian Rötzer hat in einem langen Gespräch mit Sahra Wagenknecht, aus dem das Buch "Couragiert gegen den Strom. Über Goethe, die Macht und die Zukunft!" hervorgegangen ist, u.a. darüber gesprochen, wie Kultur und philosophisches Denken die politischen Vorstellungen und den politischen Stil der linken Politikerin geprägt haben. Dabei ging es auch um den Kapitalismus und dessen Abschaffung, um den Kern linker Politik, die Konkurrenz in der Wirtschaft und auch über die Digitalisierung sowie die Ideen, mit einer Maschinensteuer oder einem bedingungslosen Grundeinkommen das Schlimmste zu verhindern. Telepolis veröffentlicht einen Auszug aus dem Buch, das im Westendverlag erschienen ist.
  9. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 3977) [ClassicSimilarity], result of:
          0.031532075 = score(doc=3977,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.33333334 = coord(1/3)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  10. Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 5697) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5697,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5697)
      0.33333334 = coord(1/3)
    
    Content
    "Aber warum werden Titel mit Bindestrichen weniger häufig zitiert? Die Wissenschaftler vermuten, dass Autoren, wenn sie einen Artikel zitieren, möglicherweise übersehen, Bindestriche anzugeben. Dann kann in den Datenbanken keine Verlinkung mit dem Artikel mit Bindestrichen im Titel hergestellt werden, weswegen der Zitationsindex falsch wird. Das Problem scheint sich bei mehreren Bindestrichen zu verstärken, die die Irrtumshäufigkeit der Menschen erhöhen. Dass die Länge der Titel etwas mit der Zitationshäufigkeit zu tun hat, bestreiten die Wissenschaftler. Längere Titel würden einfach mit höherer Wahrscheinlichkeit mehr Bindestriche enthalten - und deswegen weniger häufig wegen der Bindestrichfehler zitiert werden. Und Artikel mit Bindestrichen sollen auch den JIF von Wissenschaftsjournalen senken."
  11. Rötzer, F.: Unsterblichkeiten und Körperverbesserungen : Von digitalen Träumereien, materiellen Wirklichkeiten und der Hoffnung auf den Zufall (2000) 0.01
    0.008493923 = product of:
      0.025481766 = sum of:
        0.025481766 = weight(_text_:im in 5340) [ClassicSimilarity], result of:
          0.025481766 = score(doc=5340,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.17667414 = fieldWeight in 5340, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5340)
      0.33333334 = coord(1/3)
    
    Abstract
    Der technische Fortschritt im digitalen Zeitalter geht einher mit wachsenden Individualisierungswünschen und -notwendigkeiten. Deregulierung und Flexibilisierung sind nicht nur Forderungen der neoliberalen Ideologie und von der ökonomischen Globalisierung ausgehende wirtschaftliche Zwänge, sondern entsprechen auch den Emanzipationsantrieben der Individuen, die aus sozialen und familiären Strukturen ausbrechen und ihre einzwängenden Verankerungen mit der realen Welt lösen, zumindest lockern wollen, wozu auch der eigene Leib mitsamt seinem Gehirn gehört. Der Körper des einzelnen ist immer weniger ein Objekt, das auch von der Gemeinschaft etwa durch gesetzliche Vorschriften in Besitz genommen oder reguliert werden kann, sondern individuelles Eigentum, mit dem jeder, unabhängig von irgendwelchen moralischen Prinzipien, machen können soll und will, was er wünscht. Die Wünsche sind allerdings durchaus sozial geprägt, wie man sehr gut weiß. In einer Mediengesellschaft, in der die Aufmerksamkeitsökonomie mehr denn je durchschlägt setzen etwa die Prominenten, die Aufmerksamkeit akkumuliert haben, natürlich auch auf ihren Körper und sein Erscheinungsbild. Hier wird, unter Anführung besonders entschlossener Individuen wie Michael Jackson oder Cher oder auch von Künstlern wie Orlan, gnadenlos der Körper in ein vermeintliches Schönheitsideal mit glatter Haut und fehlendem Bauch, passender Nase und entsprechender Brustgröße gepresst, aufgedopt und möglichst lange jung gehalten. Gleich ob es sich um die äußerliche Erscheinung oder um körperliche oder geistige Leistungskapazitäten handelt, wird der Druck zumindest auf diejenigen wachsen, die in der Wissensgesellschaft nicht zu den Verlierern gehören wollen, ihren Körper und ihr Gehirn gemäß den vorhandenen Möglichkeiten aufzurüsten. Und wenn es möglich sein wird, nicht nur chirurgisch oder chemisch den Körper und seine Funktionen zu verändern, sondern ihn durch direkte Anbindungen an Maschinen, Implantate, Neurotechnologien oder auch irgendwann genetisch einem Upgrade zu untcrziehen, um ihn leistungsfähiger zu machen, so wird diese Cyborgisierung auch unter marktstrategischen Gesichtspunkten geschehen. Auf der anderen Seite werden die Zwänge finanzieller Art zunehmen, die Verantwortung für den eigenen Körper und den der eigenen Nachkommen stärker übernehmen zu müssen, während der Möglichkeitsspielraum des Machbaren auch die Erwartungen erhöht, dass etwa Kinder weitgehend genetisch perfekt, vielleicht irgendwann auch mittels Eingriffen in die Keimbahn oder durch Einfügung künstlicher Chromosomen auf die Welt kommen. Der Druck wird hier natürlich vor allem dort am stärksten sein, wo sowieso Kinder durch In-Vitro-Fertilisation schon nicht mehr auf natürlich-zufällige Weise entstehen. Die große Frage wird in Zukunft sein, wie weit die Gesellschaften ein Auseinanderdriften der unterschiedlich medizinisch, technisch oder genetisch aufgerüsteten Menschen zulassen kann oder will. Die bestehende Chancenungleichheit wird, sofern sie über Geld geregelt wird, natürlich weiter zunehmen und sich verschärfen, beispielsweise im Hinblick auf Bildungskarrieren und Arbeitsplätze, aber einfach auch, was Gesundheit oder Alter angeht. Sollten Menschen dank neuer Techniken wie dem Klonen oder der Gentechnik allgemein wesentlich älter werden können, als dies biologisch bislang möglich ist, während andere weiterhin, weil unbehandelt, bestenfalls mit 60, 70 oder 80 Jahren sterben müssen, dann stehen womöglich gewaltige Konflikte ins Haus
  12. Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017) 0.01
    0.007507637 = product of:
      0.022522911 = sum of:
        0.022522911 = weight(_text_:im in 5243) [ClassicSimilarity], result of:
          0.022522911 = score(doc=5243,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 5243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5243)
      0.33333334 = coord(1/3)
    
    Abstract
    Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
  13. Rötzer, F.: Computerspiele verbessern die Aufmerksamkeit : Nach einer Untersuchung von Kognitionswissenschaftlern schulen Shooter-Spiele manche Leistungen der visuellen Aufmerksamkeit (2003) 0.01
    0.0063704415 = product of:
      0.019111324 = sum of:
        0.019111324 = weight(_text_:im in 1643) [ClassicSimilarity], result of:
          0.019111324 = score(doc=1643,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.13250561 = fieldWeight in 1643, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1643)
      0.33333334 = coord(1/3)
    
    Abstract
    Jede Art von Tätigkeit, die ein wenig Geschick erfordert, fördert und trainiert körperliche und geistige Leistungen. Es wäre also schon sonderlich, wenn dies bei Computerspielen und gerade den umstrittenen Action- oder Ego-Shooter-Spielen nicht der Fall sein würde. Es ist schwierig, komplexe Verhaltensweisen oder Einstellungen wie Gewaltbereitschaft zu erfassen. Viel leichter lassen sich hingegen Einflüsse von Spielen auf ganz bestimmte, abgrenzbare kognitive Leistungen empirisch feststellen. Und so haben jetzt US-Wissenschaftler nachweisen können, dass Computerspieler im Hinblick auf Aufgaben, die visuelle Aufmerksamkeit erfordern, bis zu 50 Prozent besser sind als Nichtspieler - wenn sie sich an Ballerspielen wie Counter-Strike üben.
    Content
    Tatsächlich waren die "Medal of Honor"-Spieler nach der Trainingsphase bei den Aufgaben, bei denen auch die Langzeitspieler besser abschnitten, den "Tetris"-Spielern und den Nichtspielern überlegen: "Zehn Tage des Trainings mit einem Action-Spiel", so die Wissenschaftler, "reicht aus, um die Fähigkeiten der visuellen Aufmerksamkeit, ihrer räumlichen Verteilung und ihrer zeitlichen Auflösung zu verbessern." Unklar ist jedoch, wie diese Verbesserung zustande kommt. Vielleicht werden durch das Training bestimmte Formen des "Flaschenhalses", die zu einem "Stau" bei der Verarbeitung führen und daher die Leistung herabsetzen, verändert. Möglicherweise aber werden einfach Wahrnehmungs- und Aufmerksamkeitsprozesse beschleunigt, so dass geübte Spieler beispielsweise schneller Reize selektieren können. Vielleicht fördern Spiele zudem das Multitasking, so dass die Trainierten mehr "Aufmerksamkeitsfenster" gleichzeitig offen halten können als Menschen, die sich nicht an Shooter-Spielen üben. Für bestimmte Arbeiten, beispielsweise Autofahren, Fliegen, Überwachen von vielen Monitoren, Beobachtung von Radar, Kontrolle von Menschen und Gepäck an Grenzen, Fernsteuerung von Objekten - oder natürlich für Soldaten oder Terroristen, die sich schnell auf unbekanntem Territorium orientieren, Feinde erkennen und auf diese reagieren müssen, wären also wohl Shooter-Spiele eine gute Übung. Gleichwohl sagen visuelle Fähigkeiten freilich nichts über die Gewaltbereitschaft im wirklichen Leben aus.
  14. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.01
    0.0063704415 = product of:
      0.019111324 = sum of:
        0.019111324 = weight(_text_:im in 3385) [ClassicSimilarity], result of:
          0.019111324 = score(doc=3385,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.13250561 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.33333334 = coord(1/3)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  15. Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 3978) [ClassicSimilarity], result of:
              0.055302992 = score(doc=3978,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 3978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3978)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Issue
    [22. November 2017].
  16. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.055302992 = score(doc=4427,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 1.2018 11:08:27
  17. Rötzer, F.: Umgekehrter Turing-Test : Welches Gesicht ist real? (2019) 0.01
    0.00600611 = product of:
      0.01801833 = sum of:
        0.01801833 = weight(_text_:im in 5262) [ClassicSimilarity], result of:
          0.01801833 = score(doc=5262,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.12492748 = fieldWeight in 5262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5262)
      0.33333334 = coord(1/3)
    
    Content
    Fotografie wurde seit ihrem Beginn wegen ihrer Entsubjektivierung gefeiert. Im Unterschied zur Malerei von der Bildherstellung durch den Apparat und die Lichtmalerei ersetzt wird. Deswegen wurde Fotografie als objektives Medium verherrlicht. Was von dem Objektiv aufgenommen wurde, soll es da auch gegeben haben. Der Druck auf den Auslöserknopf setzte die Wahrheitsbildgebung in Kraft, auch wenn der Ausschnitt, die Belichtung oder die Schärfe die Darstellung der Szene verändert. Mit der digitalen Fotografie hat sich das Misstrauen in das fotografische Bild extrem verstärkt - zu Recht. Zwar konnten auch schon zuvor Bilder manipuliert werden, nicht nur mit Nachbearbeitung, sondern auch, was überhaupt aufgenommen und wie das Bild beschrieben wird, digital ist aber das Foto bestenfalls Ausgangsbasis für Verabeitungen. Mit Mitteln der Künstlichen Intelligenz lassen sich fotorealistische Fakes noch leichter bewerkstelligen. Ein Bild ist kein Beweis für etwas Wirkliches mehr, sondern nur noch ein - auch bewegtes - Bild, das ebenso wenig oder viel Glaubwürdigkeit hat wie beispielsweise ein Text. Vertrauen muss in die Quelle gesetzt werden, die Bilder oder Texte produziert und verbreitet. Deepfakes nennt man fotorealistische Bilder und Videos, die manipuliert sind. Das Problem ist, dass diese immer leichter herstellbaren verfälschten Bilder auch als Belege für politische Zwecke verwendet werden können. Noch immer glauben viele traditionsverhaftet eher scheinbar objektiv generierten Bildern als etwa Texten. Die seit Februar existierende Website ThisPersonDoesNotExist.com zeigt, wie leicht wir getäuscht werden können. Mit der Hilfe des KI-Algorithmus StyleGAN von Nvidia wird hier demonstriert, wie täuschend realistische Bilder von Personen erzeugt werden können, die es nicht gibt. Dabei konkurrieren gewissermaßen zwei neuronale Netze, die mit Bildern von Gesichtern von Prominenten und von Menschen auf Flickr gefüttert wurden, gegeneinander an.