Document (#28384)

Author
Rötzer, F.
Title
Computer ergooglen die Bedeutung von Worten
Source
http://www.telepolis.de/r4/artikel/19/19326/1.html
Year
2005
Abstract
Holländische Wissenschaftler glauben, mit der "normalisierten Google-Distanz" von Begriffen einer Künstlichen Intelligenz die Bedeutung von Worten automatisch lehren zu können
Content
"Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
Links (1) http://www.telepolis.de/r4/artikel/8/8653/1.html (2) http://homepages.cwi.nl/ paulv/ (3) http://www.cwi.nl/ (4) http://www.newscientist.com/
Footnote
Artikel in der ListeTelepolis vom 27.01.2005
Theme
Computerlinguistik
Field
Sprachwissenschaft
Informatik
Object
Google

Similar documents (author)

  1. Rötzer, F.: Digitale Weltentwürfe : Streifzüge durch die Netzkultur (1998) 5.08
    5.079034 = sum of:
      5.079034 = weight(author_txt:rötzer in 5713) [ClassicSimilarity], result of:
        5.079034 = fieldWeight in 5713, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          8.126454 = idf(docFreq=34, maxDocs=43556)
          0.625 = fieldNorm(doc=5713)
    
  2. Rötzer, F.: Grundlagen einer neurotechnologischen Ethik (1996) 5.08
    5.079034 = sum of:
      5.079034 = weight(author_txt:rötzer in 2995) [ClassicSimilarity], result of:
        5.079034 = fieldWeight in 2995, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          8.126454 = idf(docFreq=34, maxDocs=43556)
          0.625 = fieldNorm(doc=2995)
    
  3. Rötzer, F.: Sicherheit geht vor Datenschutz (2006) 5.08
    5.079034 = sum of:
      5.079034 = weight(author_txt:rötzer in 5930) [ClassicSimilarity], result of:
        5.079034 = fieldWeight in 5930, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          8.126454 = idf(docFreq=34, maxDocs=43556)
          0.625 = fieldNorm(doc=5930)
    
  4. Rötzer, F.: Unsterblichkeiten und Körperverbesserungen : Von digitalen Träumereien, materiellen Wirklichkeiten und der Hoffnung auf den Zufall (2000) 5.08
    5.079034 = sum of:
      5.079034 = weight(author_txt:rötzer in 338) [ClassicSimilarity], result of:
        5.079034 = fieldWeight in 338, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          8.126454 = idf(docFreq=34, maxDocs=43556)
          0.625 = fieldNorm(doc=338)
    
  5. Rötzer, F.: "Das Dasein des Menschen macht die Existenz der Dinge doch erst interessant" (1984) 5.08
    5.079034 = sum of:
      5.079034 = weight(author_txt:rötzer in 952) [ClassicSimilarity], result of:
        5.079034 = fieldWeight in 952, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          8.126454 = idf(docFreq=34, maxDocs=43556)
          0.625 = fieldNorm(doc=952)
    

Similar documents (content)

  1. Hesse, W.: Können Maschinen denken? : Eine kritische Auseinandersetzung mit der harten These der KI (1993) 0.27
    0.2684608 = sum of:
      0.2684608 = product of:
        0.75169027 = sum of:
          0.01933393 = weight(abstract_txt:einer in 662) [ClassicSimilarity], result of:
            0.01933393 = score(doc=662,freq=1.0), product of:
              0.06368774 = queryWeight, product of:
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.016390098 = queryNorm
              0.30357382 = fieldWeight in 662, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.078125 = fieldNorm(doc=662)
          0.04586784 = weight(abstract_txt:computer in 662) [ClassicSimilarity], result of:
            0.04586784 = score(doc=662,freq=3.0), product of:
              0.078549035 = queryWeight, product of:
                1.1105613 = boost
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.016390098 = queryNorm
              0.58393896 = fieldWeight in 662, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.078125 = fieldNorm(doc=662)
          0.090971254 = weight(abstract_txt:intelligenz in 662) [ClassicSimilarity], result of:
            0.090971254 = score(doc=662,freq=1.0), product of:
              0.17883198 = queryWeight, product of:
                1.6756939 = boost
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.016390098 = queryNorm
              0.5086968 = fieldWeight in 662, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.078125 = fieldNorm(doc=662)
          0.17766568 = weight(abstract_txt:künstlichen in 662) [ClassicSimilarity], result of:
            0.17766568 = score(doc=662,freq=2.0), product of:
              0.2217693 = queryWeight, product of:
                1.866048 = boost
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.016390098 = queryNorm
              0.8011284 = fieldWeight in 662, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.078125 = fieldNorm(doc=662)
          0.4178516 = weight(abstract_txt:worten in 662) [ClassicSimilarity], result of:
            0.4178516 = score(doc=662,freq=1.0), product of:
              0.62258756 = queryWeight, product of:
                4.42168 = boost
                8.59076 = idf(docFreq=21, maxDocs=43556)
                0.016390098 = queryNorm
              0.6711531 = fieldWeight in 662, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.59076 = idf(docFreq=21, maxDocs=43556)
                0.078125 = fieldNorm(doc=662)
        0.35714287 = coord(5/14)
    
  2. Ornes, S.: Mathematiker aus Silizium (2021) 0.22
    0.22323765 = sum of:
      0.22323765 = product of:
        0.7813317 = sum of:
          0.06355635 = weight(abstract_txt:computer in 2372) [ClassicSimilarity], result of:
            0.06355635 = score(doc=2372,freq=1.0), product of:
              0.078549035 = queryWeight, product of:
                1.1105613 = boost
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.016390098 = queryNorm
              0.8091296 = fieldWeight in 2372, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.1875 = fieldNorm(doc=2372)
          0.19793572 = weight(abstract_txt:wissenschaftler in 2372) [ClassicSimilarity], result of:
            0.19793572 = score(doc=2372,freq=1.0), product of:
              0.16751397 = queryWeight, product of:
                1.6218011 = boost
                6.301905 = idf(docFreq=216, maxDocs=43556)
                0.016390098 = queryNorm
              1.1816072 = fieldWeight in 2372, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.301905 = idf(docFreq=216, maxDocs=43556)
                0.1875 = fieldNorm(doc=2372)
          0.21833101 = weight(abstract_txt:intelligenz in 2372) [ClassicSimilarity], result of:
            0.21833101 = score(doc=2372,freq=1.0), product of:
              0.17883198 = queryWeight, product of:
                1.6756939 = boost
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.016390098 = queryNorm
              1.2208723 = fieldWeight in 2372, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.1875 = fieldNorm(doc=2372)
          0.30150864 = weight(abstract_txt:künstlichen in 2372) [ClassicSimilarity], result of:
            0.30150864 = score(doc=2372,freq=1.0), product of:
              0.2217693 = queryWeight, product of:
                1.866048 = boost
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.016390098 = queryNorm
              1.3595599 = fieldWeight in 2372, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.1875 = fieldNorm(doc=2372)
        0.2857143 = coord(4/14)
    
  3. Zudnik, J.: Artifizielle Semantik : Wider das Chinesische Zimmer (2017) 0.20
    0.20269674 = sum of:
      0.20269674 = product of:
        0.47295904 = sum of:
          0.027067503 = weight(abstract_txt:einer in 712) [ClassicSimilarity], result of:
            0.027067503 = score(doc=712,freq=4.0), product of:
              0.06368774 = queryWeight, product of:
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.016390098 = queryNorm
              0.42500335 = fieldWeight in 712, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.0546875 = fieldNorm(doc=712)
          0.018537268 = weight(abstract_txt:computer in 712) [ClassicSimilarity], result of:
            0.018537268 = score(doc=712,freq=1.0), product of:
              0.078549035 = queryWeight, product of:
                1.1105613 = boost
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.016390098 = queryNorm
              0.23599613 = fieldWeight in 712, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.0546875 = fieldNorm(doc=712)
          0.020453935 = weight(abstract_txt:können in 712) [ClassicSimilarity], result of:
            0.020453935 = score(doc=712,freq=1.0), product of:
              0.08387418 = queryWeight, product of:
                1.1475886 = boost
                4.4592366 = idf(docFreq=1369, maxDocs=43556)
                0.016390098 = queryNorm
              0.2438645 = fieldWeight in 712, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.4592366 = idf(docFreq=1369, maxDocs=43556)
                0.0546875 = fieldNorm(doc=712)
          0.050724324 = weight(abstract_txt:google in 712) [ClassicSimilarity], result of:
            0.050724324 = score(doc=712,freq=2.0), product of:
              0.12196762 = queryWeight, product of:
                1.383867 = boost
                5.377354 = idf(docFreq=546, maxDocs=43556)
                0.016390098 = queryNorm
              0.4158835 = fieldWeight in 712, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.377354 = idf(docFreq=546, maxDocs=43556)
                0.0546875 = fieldNorm(doc=712)
          0.063679874 = weight(abstract_txt:intelligenz in 712) [ClassicSimilarity], result of:
            0.063679874 = score(doc=712,freq=1.0), product of:
              0.17883198 = queryWeight, product of:
                1.6756939 = boost
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.016390098 = queryNorm
              0.35608774 = fieldWeight in 712, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.0546875 = fieldNorm(doc=712)
          0.29249611 = weight(abstract_txt:worten in 712) [ClassicSimilarity], result of:
            0.29249611 = score(doc=712,freq=1.0), product of:
              0.62258756 = queryWeight, product of:
                4.42168 = boost
                8.59076 = idf(docFreq=21, maxDocs=43556)
                0.016390098 = queryNorm
              0.4698072 = fieldWeight in 712, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.59076 = idf(docFreq=21, maxDocs=43556)
                0.0546875 = fieldNorm(doc=712)
        0.42857143 = coord(6/14)
    
  4. Wolfangel, E.: ¬Die Grenzen der künstlichen Intelligenz (2016) 0.16
    0.16409892 = sum of:
      0.16409892 = product of:
        0.5743462 = sum of:
          0.03866786 = weight(abstract_txt:einer in 393) [ClassicSimilarity], result of:
            0.03866786 = score(doc=393,freq=1.0), product of:
              0.06368774 = queryWeight, product of:
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.016390098 = queryNorm
              0.60714763 = fieldWeight in 393, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.15625 = fieldNorm(doc=393)
          0.10247861 = weight(abstract_txt:google in 393) [ClassicSimilarity], result of:
            0.10247861 = score(doc=393,freq=1.0), product of:
              0.12196762 = queryWeight, product of:
                1.383867 = boost
                5.377354 = idf(docFreq=546, maxDocs=43556)
                0.016390098 = queryNorm
              0.8402116 = fieldWeight in 393, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.377354 = idf(docFreq=546, maxDocs=43556)
                0.15625 = fieldNorm(doc=393)
          0.18194251 = weight(abstract_txt:intelligenz in 393) [ClassicSimilarity], result of:
            0.18194251 = score(doc=393,freq=1.0), product of:
              0.17883198 = queryWeight, product of:
                1.6756939 = boost
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.016390098 = queryNorm
              1.0173936 = fieldWeight in 393, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.15625 = fieldNorm(doc=393)
          0.25125718 = weight(abstract_txt:künstlichen in 393) [ClassicSimilarity], result of:
            0.25125718 = score(doc=393,freq=1.0), product of:
              0.2217693 = queryWeight, product of:
                1.866048 = boost
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.016390098 = queryNorm
              1.1329665 = fieldWeight in 393, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.15625 = fieldNorm(doc=393)
        0.2857143 = coord(4/14)
    
  5. Ritchie, D.: Gehirn und Computer : Die Evolution einer neuen Intelligenz (1984) 0.16
    0.16066493 = sum of:
      0.16066493 = product of:
        0.4498618 = sum of:
          0.02678988 = weight(abstract_txt:einer in 454) [ClassicSimilarity], result of:
            0.02678988 = score(doc=454,freq=3.0), product of:
              0.06368774 = queryWeight, product of:
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.016390098 = queryNorm
              0.4206442 = fieldWeight in 454, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                3.8857448 = idf(docFreq=2430, maxDocs=43556)
                0.0625 = fieldNorm(doc=454)
          0.036694273 = weight(abstract_txt:computer in 454) [ClassicSimilarity], result of:
            0.036694273 = score(doc=454,freq=3.0), product of:
              0.078549035 = queryWeight, product of:
                1.1105613 = boost
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.016390098 = queryNorm
              0.46715117 = fieldWeight in 454, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                4.3153577 = idf(docFreq=1581, maxDocs=43556)
                0.0625 = fieldNorm(doc=454)
          0.06597857 = weight(abstract_txt:wissenschaftler in 454) [ClassicSimilarity], result of:
            0.06597857 = score(doc=454,freq=1.0), product of:
              0.16751397 = queryWeight, product of:
                1.6218011 = boost
                6.301905 = idf(docFreq=216, maxDocs=43556)
                0.016390098 = queryNorm
              0.39386907 = fieldWeight in 454, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.301905 = idf(docFreq=216, maxDocs=43556)
                0.0625 = fieldNorm(doc=454)
          0.17826653 = weight(abstract_txt:intelligenz in 454) [ClassicSimilarity], result of:
            0.17826653 = score(doc=454,freq=6.0), product of:
              0.17883198 = queryWeight, product of:
                1.6756939 = boost
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.016390098 = queryNorm
              0.99683803 = fieldWeight in 454, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                6.5113187 = idf(docFreq=175, maxDocs=43556)
                0.0625 = fieldNorm(doc=454)
          0.14213255 = weight(abstract_txt:künstlichen in 454) [ClassicSimilarity], result of:
            0.14213255 = score(doc=454,freq=2.0), product of:
              0.2217693 = queryWeight, product of:
                1.866048 = boost
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.016390098 = queryNorm
              0.6409027 = fieldWeight in 454, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                7.250986 = idf(docFreq=83, maxDocs=43556)
                0.0625 = fieldNorm(doc=454)
        0.35714287 = coord(5/14)