Search (125 results, page 2 of 7)

  • × theme_ss:"Computerlinguistik"
  1. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.01
    0.0057169674 = product of:
      0.034301803 = sum of:
        0.034301803 = product of:
          0.10290541 = sum of:
            0.10290541 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.10290541 = score(doc=4251,freq=4.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 1.2011 14:56:29
  2. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2022) 0.01
    0.0052086804 = product of:
      0.031252082 = sum of:
        0.031252082 = weight(_text_:wissen in 929) [ClassicSimilarity], result of:
          0.031252082 = score(doc=929,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.19060494 = fieldWeight in 929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
      0.16666667 = coord(1/6)
    
    Content
    "Seit dem 30. November 2022 ist meine Welt - und die vieler Bildungsexpertinnen und Bildungsexperten - gefühlt eine andere Welt, die uns in eine "Neuzeit" führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen. Der Ableger und Prototyp ChatGPT des derzeit (zumindest in der westlichen Welt) führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30. November veröffentlicht und ist seit dieser Zeit für jeden frei zugänglich und kostenlos. Was zunächst als unspektakuläre Ankündigung von OpenAI anmutete, nämlich das seit 2020 bereits verfügbare KI-Sprachmodell GPT-3 nun in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation bereitzustellen, entpuppt sich in der Anwendung - aus Sicht der Nutzerinnen und Nutzer - als Meilenstein der KI-Entwicklung. Fakt ist, dass die Leistungsvielfalt und -stärke von ChatGPT selbst IT-Expertinnen und -Experten überrascht hat und sie zu einer Fülle von Superlativen in der Bewertung veranlasst, jedoch immer in Kombination mit Hinweisen zur fehlenden Faktentreue und Verlässlichkeit derartiger generativer KI-Modelle. Mit WebGPT von OpenAI steht aber bereits ein Forschungsprototyp bereit, der mit integrierter Internetsuchfunktion die "Halluzinationen" aktueller GPT-Varianten ausmerzen könnte. Für den Bildungssektor stellt sich die Frage, wie sich das Lehren und Lernen an Hochschulen (und nicht nur dort) verändern wird, wenn derartige KI-Werkzeuge omnipräsent sind und mit ihrer Hilfe nicht nur die Hausarbeit "per Knopfdruck" erstellt werden kann. Beeindruckend ist zudem die fachliche Bandbreite von ChatGPT, siehe den Tweet von @davidtsong, der ChatGPT dem Studierfähigkeitstest SAT unterzogen hat."
  3. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    0.0047440557 = product of:
      0.028464332 = sum of:
        0.028464332 = weight(_text_:geschichte in 331) [ClassicSimilarity], result of:
          0.028464332 = score(doc=331,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.15753455 = fieldWeight in 331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.16666667 = coord(1/6)
    
    Content
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  4. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.00
    0.0046200072 = product of:
      0.027720042 = sum of:
        0.027720042 = product of:
          0.083160125 = sum of:
            0.083160125 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.083160125 = score(doc=2140,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    4.11.1998 14:30:29
  5. Warner, A.J.: Natural language processing (1987) 0.00
    0.0045784465 = product of:
      0.027470678 = sum of:
        0.027470678 = product of:
          0.082412034 = sum of:
            0.082412034 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.082412034 = score(doc=337,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  6. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.00
    0.004042506 = product of:
      0.024255035 = sum of:
        0.024255035 = product of:
          0.072765104 = sum of:
            0.072765104 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
              0.072765104 = score(doc=450,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5441145 = fieldWeight in 450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=450)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
  7. Proszeky, G.: Language technology tools in the translator's practice (1999) 0.00
    0.004042506 = product of:
      0.024255035 = sum of:
        0.024255035 = product of:
          0.072765104 = sum of:
            0.072765104 = weight(_text_:29 in 6873) [ClassicSimilarity], result of:
              0.072765104 = score(doc=6873,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5441145 = fieldWeight in 6873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6873)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    30. 3.2002 18:29:40
  8. McMahon, J.G.; Smith, F.J.: Improved statistical language model performance with automatic generated word hierarchies (1996) 0.00
    0.004006141 = product of:
      0.024036845 = sum of:
        0.024036845 = product of:
          0.07211053 = sum of:
            0.07211053 = weight(_text_:22 in 3164) [ClassicSimilarity], result of:
              0.07211053 = score(doc=3164,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 3164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3164)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Computational linguistics. 22(1996) no.2, S.217-248
  9. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.00
    0.004006141 = product of:
      0.024036845 = sum of:
        0.024036845 = product of:
          0.07211053 = sum of:
            0.07211053 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.07211053 = score(doc=4506,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    8.10.2000 11:52:22
  10. Somers, H.: Example-based machine translation : Review article (1999) 0.00
    0.004006141 = product of:
      0.024036845 = sum of:
        0.024036845 = product of:
          0.07211053 = sum of:
            0.07211053 = weight(_text_:22 in 6672) [ClassicSimilarity], result of:
              0.07211053 = score(doc=6672,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 6672, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6672)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    31. 7.1996 9:22:19
  11. New tools for human translators (1997) 0.00
    0.004006141 = product of:
      0.024036845 = sum of:
        0.024036845 = product of:
          0.07211053 = sum of:
            0.07211053 = weight(_text_:22 in 1179) [ClassicSimilarity], result of:
              0.07211053 = score(doc=1179,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1179)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    31. 7.1996 9:22:19
  12. Baayen, R.H.; Lieber, H.: Word frequency distributions and lexical semantics (1997) 0.00
    0.004006141 = product of:
      0.024036845 = sum of:
        0.024036845 = product of:
          0.07211053 = sum of:
            0.07211053 = weight(_text_:22 in 3117) [ClassicSimilarity], result of:
              0.07211053 = score(doc=3117,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 3117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3117)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    28. 2.1999 10:48:22
  13. ¬Der Student aus dem Computer (2023) 0.00
    0.004006141 = product of:
      0.024036845 = sum of:
        0.024036845 = product of:
          0.07211053 = sum of:
            0.07211053 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.07211053 = score(doc=1079,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    27. 1.2023 16:22:55
  14. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.003906511 = product of:
      0.023439063 = sum of:
        0.023439063 = weight(_text_:wissen in 3385) [ClassicSimilarity], result of:
          0.023439063 = score(doc=3385,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.14295371 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.16666667 = coord(1/6)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
  15. Zue, V.: Dein Computer spricht mir dir (1999) 0.00
    0.0034650052 = product of:
      0.020790031 = sum of:
        0.020790031 = product of:
          0.06237009 = sum of:
            0.06237009 = weight(_text_:29 in 4244) [ClassicSimilarity], result of:
              0.06237009 = score(doc=4244,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46638384 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    31.12.1996 19:29:41
  16. Mustafa El Hadi, W.: Evaluating human language technology : general applications to information access and management (2002) 0.00
    0.0034650052 = product of:
      0.020790031 = sum of:
        0.020790031 = product of:
          0.06237009 = sum of:
            0.06237009 = weight(_text_:29 in 1840) [ClassicSimilarity], result of:
              0.06237009 = score(doc=1840,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46638384 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1840)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Knowledge organization. 29(2002) nos.3/4, S.124-134
  17. Müller, P.: Text-Automat mit Tücken (2023) 0.00
    0.0034650052 = product of:
      0.020790031 = sum of:
        0.020790031 = product of:
          0.06237009 = sum of:
            0.06237009 = weight(_text_:29 in 481) [ClassicSimilarity], result of:
              0.06237009 = score(doc=481,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46638384 = fieldWeight in 481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=481)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Pirmasenser Zeitung. Nr. 29 vom 03.02.2023, S.2
  18. Byrne, C.C.; McCracken, S.A.: ¬An adaptive thesaurus employing semantic distance, relational inheritance and nominal compound interpretation for linguistic support of information retrieval (1999) 0.00
    0.0034338348 = product of:
      0.020603009 = sum of:
        0.020603009 = product of:
          0.061809026 = sum of:
            0.061809026 = weight(_text_:22 in 4483) [ClassicSimilarity], result of:
              0.061809026 = score(doc=4483,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 4483, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4483)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    15. 3.2000 10:22:37
  19. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.00
    0.0034338348 = product of:
      0.020603009 = sum of:
        0.020603009 = product of:
          0.061809026 = sum of:
            0.061809026 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.061809026 = score(doc=4888,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 3.2013 14:56:22
  20. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.00
    0.0034338348 = product of:
      0.020603009 = sum of:
        0.020603009 = product of:
          0.061809026 = sum of:
            0.061809026 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.061809026 = score(doc=5429,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    c't. 2000, H.22, S.230-231

Years

Languages

  • e 78
  • d 42
  • ru 2
  • m 1
  • More… Less…

Types

  • a 100
  • el 15
  • m 13
  • s 6
  • x 3
  • p 2
  • d 1
  • More… Less…

Classifications