Search (15 results, page 1 of 1)

  • × type_ss:"el"
  • × theme_ss:"Computerlinguistik"
  1. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.04
    0.03604601 = product of:
      0.108138025 = sum of:
        0.0781302 = weight(_text_:wissen in 925) [ClassicSimilarity], result of:
          0.0781302 = score(doc=925,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.47651234 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
        0.030007824 = product of:
          0.09002347 = sum of:
            0.09002347 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.09002347 = score(doc=925,freq=6.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
    Source
    https://www.tagesschau.de/wissen/technologie/ki-chatgpt-uni-wissenschaft-101.html
  2. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.01
    0.012706584 = product of:
      0.038119752 = sum of:
        0.031252082 = weight(_text_:wissen in 4217) [ClassicSimilarity], result of:
          0.031252082 = score(doc=4217,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.19060494 = fieldWeight in 4217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.0068676695 = product of:
          0.020603009 = sum of:
            0.020603009 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.020603009 = score(doc=4217,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  3. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2022) 0.01
    0.0052086804 = product of:
      0.031252082 = sum of:
        0.031252082 = weight(_text_:wissen in 929) [ClassicSimilarity], result of:
          0.031252082 = score(doc=929,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.19060494 = fieldWeight in 929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
      0.16666667 = coord(1/6)
    
    Content
    "Seit dem 30. November 2022 ist meine Welt - und die vieler Bildungsexpertinnen und Bildungsexperten - gefühlt eine andere Welt, die uns in eine "Neuzeit" führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen. Der Ableger und Prototyp ChatGPT des derzeit (zumindest in der westlichen Welt) führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30. November veröffentlicht und ist seit dieser Zeit für jeden frei zugänglich und kostenlos. Was zunächst als unspektakuläre Ankündigung von OpenAI anmutete, nämlich das seit 2020 bereits verfügbare KI-Sprachmodell GPT-3 nun in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation bereitzustellen, entpuppt sich in der Anwendung - aus Sicht der Nutzerinnen und Nutzer - als Meilenstein der KI-Entwicklung. Fakt ist, dass die Leistungsvielfalt und -stärke von ChatGPT selbst IT-Expertinnen und -Experten überrascht hat und sie zu einer Fülle von Superlativen in der Bewertung veranlasst, jedoch immer in Kombination mit Hinweisen zur fehlenden Faktentreue und Verlässlichkeit derartiger generativer KI-Modelle. Mit WebGPT von OpenAI steht aber bereits ein Forschungsprototyp bereit, der mit integrierter Internetsuchfunktion die "Halluzinationen" aktueller GPT-Varianten ausmerzen könnte. Für den Bildungssektor stellt sich die Frage, wie sich das Lehren und Lernen an Hochschulen (und nicht nur dort) verändern wird, wenn derartige KI-Werkzeuge omnipräsent sind und mit ihrer Hilfe nicht nur die Hausarbeit "per Knopfdruck" erstellt werden kann. Beeindruckend ist zudem die fachliche Bandbreite von ChatGPT, siehe den Tweet von @davidtsong, der ChatGPT dem Studierfähigkeitstest SAT unterzogen hat."
  4. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    0.0047440557 = product of:
      0.028464332 = sum of:
        0.028464332 = weight(_text_:geschichte in 331) [ClassicSimilarity], result of:
          0.028464332 = score(doc=331,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.15753455 = fieldWeight in 331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.16666667 = coord(1/6)
    
    Content
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  5. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.003906511 = product of:
      0.023439063 = sum of:
        0.023439063 = weight(_text_:wissen in 3385) [ClassicSimilarity], result of:
          0.023439063 = score(doc=3385,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.14295371 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.16666667 = coord(1/6)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
  6. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.00
    0.0034338348 = product of:
      0.020603009 = sum of:
        0.020603009 = product of:
          0.061809026 = sum of:
            0.061809026 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.061809026 = score(doc=4888,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 3.2013 14:56:22
  7. Griffiths, T.L.; Steyvers, M.: ¬A probabilistic approach to semantic representation (2002) 0.00
    0.0032668384 = product of:
      0.01960103 = sum of:
        0.01960103 = product of:
          0.05880309 = sum of:
            0.05880309 = weight(_text_:29 in 3671) [ClassicSimilarity], result of:
              0.05880309 = score(doc=3671,freq=4.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.43971092 = fieldWeight in 3671, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3671)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 6.2015 14:55:01
    29. 6.2015 16:09:05
  8. Snajder, J.: Distributional semantics of multi-word expressions (2013) 0.00
    0.0028875046 = product of:
      0.017325027 = sum of:
        0.017325027 = product of:
          0.05197508 = sum of:
            0.05197508 = weight(_text_:29 in 2868) [ClassicSimilarity], result of:
              0.05197508 = score(doc=2868,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.38865322 = fieldWeight in 2868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2868)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 4.2016 12:04:50
  9. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.00
    0.0022892233 = product of:
      0.013735339 = sum of:
        0.013735339 = product of:
          0.041206017 = sum of:
            0.041206017 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.041206017 = score(doc=1490,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 3.2015 9:30:24
  10. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.00
    0.0022892233 = product of:
      0.013735339 = sum of:
        0.013735339 = product of:
          0.041206017 = sum of:
            0.041206017 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.041206017 = score(doc=835,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29.12.2022 18:22:55
  11. Rieger, F.: Lügende Computer (2023) 0.00
    0.0022892233 = product of:
      0.013735339 = sum of:
        0.013735339 = product of:
          0.041206017 = sum of:
            0.041206017 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.041206017 = score(doc=912,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    16. 3.2023 19:22:55
  12. Rindflesch, T.C.; Aronson, A.R.: Semantic processing in information retrieval (1993) 0.00
    0.002021253 = product of:
      0.012127518 = sum of:
        0.012127518 = product of:
          0.036382552 = sum of:
            0.036382552 = weight(_text_:29 in 4121) [ClassicSimilarity], result of:
              0.036382552 = score(doc=4121,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.27205724 = fieldWeight in 4121, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4121)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 6.2015 14:51:28
  13. Stoykova, V.; Petkova, E.: Automatic extraction of mathematical terms for precalculus (2012) 0.00
    0.002021253 = product of:
      0.012127518 = sum of:
        0.012127518 = product of:
          0.036382552 = sum of:
            0.036382552 = weight(_text_:29 in 156) [ClassicSimilarity], result of:
              0.036382552 = score(doc=156,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.27205724 = fieldWeight in 156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=156)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 5.2012 10:17:08
  14. Snajder, J.; Almic, P.: Modeling semantic compositionality of Croatian multiword expressions (2015) 0.00
    0.0017325026 = product of:
      0.010395016 = sum of:
        0.010395016 = product of:
          0.031185046 = sum of:
            0.031185046 = weight(_text_:29 in 2920) [ClassicSimilarity], result of:
              0.031185046 = score(doc=2920,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.23319192 = fieldWeight in 2920, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2920)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 4.2016 12:42:17
  15. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.00
    0.0011550018 = product of:
      0.0069300104 = sum of:
        0.0069300104 = product of:
          0.020790031 = sum of:
            0.020790031 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.020790031 = score(doc=877,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Content
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.