Search (5 results, page 1 of 1)

  • × author_ss:"Rötzer, F."
  1. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.05
    0.0549809 = product of:
      0.1099618 = sum of:
        0.1099618 = sum of:
          0.07748522 = weight(_text_:liegt in 4217) [ClassicSimilarity], result of:
            0.07748522 = score(doc=4217,freq=2.0), product of:
              0.32414144 = queryWeight, product of:
                5.4090285 = idf(docFreq=537, maxDocs=44218)
                0.059926 = queryNorm
              0.23904754 = fieldWeight in 4217, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4090285 = idf(docFreq=537, maxDocs=44218)
                0.03125 = fieldNorm(doc=4217)
          0.03247658 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
            0.03247658 = score(doc=4217,freq=2.0), product of:
              0.20985064 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.059926 = queryNorm
              0.15476047 = fieldWeight in 4217, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=4217)
      0.5 = coord(1/2)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  2. Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017) 0.02
    0.01623829 = product of:
      0.03247658 = sum of:
        0.03247658 = product of:
          0.06495316 = sum of:
            0.06495316 = weight(_text_:22 in 3978) [ClassicSimilarity], result of:
              0.06495316 = score(doc=3978,freq=2.0), product of:
                0.20985064 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059926 = queryNorm
                0.30952093 = fieldWeight in 3978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3978)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Issue
    [22. November 2017].
  3. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.02
    0.01623829 = product of:
      0.03247658 = sum of:
        0.03247658 = product of:
          0.06495316 = sum of:
            0.06495316 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.06495316 = score(doc=4427,freq=2.0), product of:
                0.20985064 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059926 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2018 11:08:27
  4. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.01
    0.0145284785 = product of:
      0.029056957 = sum of:
        0.029056957 = product of:
          0.058113914 = sum of:
            0.058113914 = weight(_text_:liegt in 3385) [ClassicSimilarity], result of:
              0.058113914 = score(doc=3385,freq=2.0), product of:
                0.32414144 = queryWeight, product of:
                  5.4090285 = idf(docFreq=537, maxDocs=44218)
                  0.059926 = queryNorm
                0.17928566 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4090285 = idf(docFreq=537, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  5. Rötzer, F.: Internet ist überlebensnotwendig (2001) 0.01
    0.008611655 = product of:
      0.01722331 = sum of:
        0.01722331 = product of:
          0.03444662 = sum of:
            0.03444662 = weight(_text_:22 in 6481) [ClassicSimilarity], result of:
              0.03444662 = score(doc=6481,freq=4.0), product of:
                0.20985064 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059926 = queryNorm
                0.16414827 = fieldWeight in 6481, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6481)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
    Date
    21. 6.2005 21:22:09

Types