Search (23 results, page 1 of 2)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"el"
  1. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.02
    0.023968806 = product of:
      0.095875226 = sum of:
        0.095875226 = sum of:
          0.06255538 = weight(_text_:da in 1490) [ClassicSimilarity], result of:
            0.06255538 = score(doc=1490,freq=2.0), product of:
              0.1475006 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.030740997 = queryNorm
              0.42410251 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
          0.033319846 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
            0.033319846 = score(doc=1490,freq=2.0), product of:
              0.107649736 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.030740997 = queryNorm
              0.30952093 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
      0.25 = coord(1/4)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  2. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.02
    0.021045186 = product of:
      0.04209037 = sum of:
        0.014722392 = weight(_text_:m in 866) [ClassicSimilarity], result of:
          0.014722392 = score(doc=866,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=866)
        0.027367977 = product of:
          0.054735955 = sum of:
            0.054735955 = weight(_text_:da in 866) [ClassicSimilarity], result of:
              0.054735955 = score(doc=866,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.3710897 = fieldWeight in 866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=866)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
  3. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.01
    0.010522593 = product of:
      0.021045186 = sum of:
        0.007361196 = weight(_text_:m in 572) [ClassicSimilarity], result of:
          0.007361196 = score(doc=572,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.09622806 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.013683989 = product of:
          0.027367977 = sum of:
            0.027367977 = weight(_text_:da in 572) [ClassicSimilarity], result of:
              0.027367977 = score(doc=572,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.18554485 = fieldWeight in 572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=572)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
  4. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.01
    0.006247471 = product of:
      0.024989884 = sum of:
        0.024989884 = product of:
          0.04997977 = sum of:
            0.04997977 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.04997977 = score(doc=4888,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    1. 3.2013 14:56:22
  5. Griffiths, T.L.; Steyvers, M.: ¬A probabilistic approach to semantic representation (2002) 0.00
    0.0042063976 = product of:
      0.01682559 = sum of:
        0.01682559 = weight(_text_:m in 3671) [ClassicSimilarity], result of:
          0.01682559 = score(doc=3671,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=3671)
      0.25 = coord(1/4)
    
  6. Ramisch, C.; Schreiner, P.; Idiart, M.; Villavicencio, A.: ¬An evaluation of methods for the extraction of multiword expressions (20xx) 0.00
    0.0042063976 = product of:
      0.01682559 = sum of:
        0.01682559 = weight(_text_:m in 962) [ClassicSimilarity], result of:
          0.01682559 = score(doc=962,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=962)
      0.25 = coord(1/4)
    
  7. Nielsen, R.D.; Ward, W.; Martin, J.H.; Palmer, M.: Extracting a representation from text for semantic analysis (2008) 0.00
    0.0042063976 = product of:
      0.01682559 = sum of:
        0.01682559 = weight(_text_:m in 3365) [ClassicSimilarity], result of:
          0.01682559 = score(doc=3365,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 3365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=3365)
      0.25 = coord(1/4)
    
  8. Bischoff, M.: Wie eine KI lernt, sich selbst zu erklären (2023) 0.00
    0.0042063976 = product of:
      0.01682559 = sum of:
        0.01682559 = weight(_text_:m in 956) [ClassicSimilarity], result of:
          0.01682559 = score(doc=956,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
      0.25 = coord(1/4)
    
  9. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.00
    0.0041649807 = product of:
      0.016659923 = sum of:
        0.016659923 = product of:
          0.033319846 = sum of:
            0.033319846 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.033319846 = score(doc=835,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    29.12.2022 18:22:55
  10. Rieger, F.: Lügende Computer (2023) 0.00
    0.0041649807 = product of:
      0.016659923 = sum of:
        0.016659923 = product of:
          0.033319846 = sum of:
            0.033319846 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.033319846 = score(doc=912,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    16. 3.2023 19:22:55
  11. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.00
    0.0037179654 = product of:
      0.014871862 = sum of:
        0.014871862 = weight(_text_:m in 3206) [ClassicSimilarity], result of:
          0.014871862 = score(doc=3206,freq=4.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19441006 = fieldWeight in 3206, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
      0.25 = coord(1/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
  12. Wong, W.; Liu, W.; Bennamoun, M.: Ontology learning from text : a look back and into the future (2010) 0.00
    0.003680598 = product of:
      0.014722392 = sum of:
        0.014722392 = weight(_text_:m in 4733) [ClassicSimilarity], result of:
          0.014722392 = score(doc=4733,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 4733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4733)
      0.25 = coord(1/4)
    
  13. Shen, M.; Liu, D.-R.; Huang, Y.-S.: Extracting semantic relations to enrich domain ontologies (2012) 0.00
    0.003680598 = product of:
      0.014722392 = sum of:
        0.014722392 = weight(_text_:m in 267) [ClassicSimilarity], result of:
          0.014722392 = score(doc=267,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=267)
      0.25 = coord(1/4)
    
  14. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.00
    0.003680598 = product of:
      0.014722392 = sum of:
        0.014722392 = weight(_text_:m in 5227) [ClassicSimilarity], result of:
          0.014722392 = score(doc=5227,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 5227, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.25 = coord(1/4)
    
  15. Aizawa, A.; Kohlhase, M.: Mathematical information retrieval (2021) 0.00
    0.003680598 = product of:
      0.014722392 = sum of:
        0.014722392 = weight(_text_:m in 667) [ClassicSimilarity], result of:
          0.014722392 = score(doc=667,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=667)
      0.25 = coord(1/4)
    
  16. Liu, P.J.; Saleh, M.; Pot, E.; Goodrich, B.; Sepassi, R.; Kaiser, L.; Shazeer, N.: Generating Wikipedia by summarizing long sequences (2018) 0.00
    0.003680598 = product of:
      0.014722392 = sum of:
        0.014722392 = weight(_text_:m in 773) [ClassicSimilarity], result of:
          0.014722392 = score(doc=773,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=773)
      0.25 = coord(1/4)
    
  17. Brown, T.B.; Mann, B.; Ryder, N.; Subbiah, M.; Kaplan, J.; Dhariwal, P.; Neelakantan, A.; Shyam, P.; Sastry, G.; Askell, A.; Agarwal, S.; Herbert-Voss, A.; Krueger, G.; Henighan, T.; Child, R.; Ramesh, A.; Ziegler, D.M.; Wu, J.; Winter, C.; Hesse, C.; Chen, M.; Sigler, E.; Litwin, M.; Gray, S.; Chess, B.; Clark, J.; Berner, C.; McCandlish, S.; Radford, A.; Sutskever, I.; Amodei, D.: Language models are few-shot learners (2020) 0.00
    0.0036428473 = product of:
      0.014571389 = sum of:
        0.014571389 = weight(_text_:m in 872) [ClassicSimilarity], result of:
          0.014571389 = score(doc=872,freq=6.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19048217 = fieldWeight in 872, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.03125 = fieldNorm(doc=872)
      0.25 = coord(1/4)
    
  18. Perovsek, M.; Kranjca, J.; Erjaveca, T.; Cestnika, B.; Lavraca, N.: TextFlows : a visual programming platform for text mining and natural language processing (2016) 0.00
    0.0031547982 = product of:
      0.012619193 = sum of:
        0.012619193 = weight(_text_:m in 2697) [ClassicSimilarity], result of:
          0.012619193 = score(doc=2697,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.1649624 = fieldWeight in 2697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.046875 = fieldNorm(doc=2697)
      0.25 = coord(1/4)
    
  19. Bird, S.; Dale, R.; Dorr, B.; Gibson, B.; Joseph, M.; Kan, M.-Y.; Lee, D.; Powley, B.; Radev, D.; Tan, Y.F.: ¬The ACL Anthology Reference Corpus : a reference dataset for bibliographic research in computational linguistics (2008) 0.00
    0.0029743724 = product of:
      0.011897489 = sum of:
        0.011897489 = weight(_text_:m in 2804) [ClassicSimilarity], result of:
          0.011897489 = score(doc=2804,freq=4.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.15552804 = fieldWeight in 2804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.03125 = fieldNorm(doc=2804)
      0.25 = coord(1/4)
    
  20. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.0029322833 = product of:
      0.011729133 = sum of:
        0.011729133 = product of:
          0.023458267 = sum of:
            0.023458267 = weight(_text_:da in 3385) [ClassicSimilarity], result of:
              0.023458267 = score(doc=3385,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.15903844 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.