Search (35 results, page 1 of 2)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"el"
  1. Rieger, F.: Lügende Computer (2023) 0.02
    0.015365123 = product of:
      0.09731245 = sum of:
        0.015033351 = weight(_text_:und in 912) [ClassicSimilarity], result of:
          0.015033351 = score(doc=912,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.069010735 = weight(_text_:leben in 912) [ClassicSimilarity], result of:
          0.069010735 = score(doc=912,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.4991426 = fieldWeight in 912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.026536733 = score(doc=912,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Wir leben gerade in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen "AI"-Systemen, die driften, halluzinieren, lügen und fabulieren können. Schon heute ist die Komplexität moderner Softwaresysteme so hoch, dass es kühn wäre, von striktem Determinismus zu sprechen, jedoch sind auch komplexe Algorithmen darauf angelegt, bei gleichen Eingabedaten gleiche Ergebnisse zu produzieren. Eine Ausnahme sind heute schon Algorithmen, die Zufallszahlen als Teil ihrer Eingabeparameter beinhalten oder neuronale Netze.
    Date
    16. 3.2023 19:22:55
  2. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.01
    0.013826302 = product of:
      0.087566584 = sum of:
        0.04825969 = weight(_text_:deutsche in 1490) [ClassicSimilarity], result of:
          0.04825969 = score(doc=1490,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 1490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.02603853 = weight(_text_:und in 1490) [ClassicSimilarity], result of:
          0.02603853 = score(doc=1490,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.47985753 = fieldWeight in 1490, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.026536733 = score(doc=1490,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  3. Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019) 0.01
    0.009993638 = product of:
      0.09493956 = sum of:
        0.072389536 = weight(_text_:deutsche in 4981) [ClassicSimilarity], result of:
          0.072389536 = score(doc=4981,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.6261088 = fieldWeight in 4981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
        0.022550028 = weight(_text_:und in 4981) [ClassicSimilarity], result of:
          0.022550028 = score(doc=4981,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 4981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
      0.10526316 = coord(2/19)
    
    Abstract
    Deutsche Sprachsoftware ist besser als Google. Sogar professionelle Übersetzer diskutieren schon, ob sie überflüssig werden.
    Source
    https://www.tagesspiegel.de/wirtschaft/sprachsoftware-deepl-und-acrolinx-uebersetzer-ueberfluessig/23884348.html
  4. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.01
    0.009935079 = product of:
      0.094383255 = sum of:
        0.074480705 = weight(_text_:literatur in 4888) [ClassicSimilarity], result of:
          0.074480705 = score(doc=4888,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.63508785 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.0398051 = score(doc=4888,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  5. Scobel, G.: GPT: Eine Software, die die Welt verändert (2023) 0.01
    0.008511467 = product of:
      0.08085894 = sum of:
        0.062067248 = weight(_text_:literatur in 839) [ClassicSimilarity], result of:
          0.062067248 = score(doc=839,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.52923983 = fieldWeight in 839, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=839)
        0.018791689 = weight(_text_:und in 839) [ClassicSimilarity], result of:
          0.018791689 = score(doc=839,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 839, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=839)
      0.10526316 = coord(2/19)
    
    Abstract
    GPT-3 ist eine jener Entwicklungen, die binnen weniger Monate an Einfluss und Reichweite zulegen. Die Software wird sich massiv auf Ökonomie und Gesellschaft auswirken.
    Source
    https://www.zdf.de/nachrichten/panorama/gpt-ki-literatur-terrax-gert-scobel-kolumne-100.html?utm_source=pocket-newtab-global-de-DE
  6. Deutsche Forschungsgemeinschaft: Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG (2023) 0.01
    0.007820865 = product of:
      0.07429822 = sum of:
        0.04825969 = weight(_text_:deutsche in 991) [ClassicSimilarity], result of:
          0.04825969 = score(doc=991,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.02603853 = weight(_text_:und in 991) [ClassicSimilarity], result of:
          0.02603853 = score(doc=991,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.47985753 = fieldWeight in 991, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
      0.10526316 = coord(2/19)
    
    Abstract
    Die Einsatzmöglichkeiten von "Künstlicher Intelligenz" (KI) beschäftigen derzeit große Teile der Gesellschaft. Anlass ist insbesondere die Entwicklung generativer Modelle für die Text- und Bilderstellung wie "ChatGPT" und "DALL-E", die eine Interaktion zwischen Mensch und technischem System in gesprochener oder Text-/Bildsprache ermöglichen, und ihre Bereitstellung für die Allgemeinheit.
  7. Sprachtechnologie : ein Überblick (2012) 0.00
    0.0049797585 = product of:
      0.047307707 = sum of:
        0.031033624 = weight(_text_:literatur in 1750) [ClassicSimilarity], result of:
          0.031033624 = score(doc=1750,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.26461992 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.016274082 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.016274082 = score(doc=1750,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.10526316 = coord(2/19)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  8. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.0031915507 = product of:
      0.030319732 = sum of:
        0.019117717 = weight(_text_:und in 3385) [ClassicSimilarity], result of:
          0.019117717 = score(doc=3385,freq=46.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3523156 = fieldWeight in 3385, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.011202015 = product of:
          0.02240403 = sum of:
            0.02240403 = weight(_text_:allgemein in 3385) [ClassicSimilarity], result of:
              0.02240403 = score(doc=3385,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.17415863 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  9. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.0026364424 = product of:
      0.025046203 = sum of:
        0.01841202 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.01841202 = score(doc=4217,freq=24.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 4217, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.006634183 = product of:
          0.013268366 = sum of:
            0.013268366 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.013268366 = score(doc=4217,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  10. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.00
    0.002515637 = product of:
      0.023898551 = sum of:
        0.010630185 = weight(_text_:und in 835) [ClassicSimilarity], result of:
          0.010630185 = score(doc=835,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19590102 = fieldWeight in 835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=835)
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.026536733 = score(doc=835,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    29.12.2022 18:22:55
  11. Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023) 0.00
    0.0015638036 = product of:
      0.02971227 = sum of:
        0.02971227 = weight(_text_:und in 908) [ClassicSimilarity], result of:
          0.02971227 = score(doc=908,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.54756 = fieldWeight in 908, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
      0.05263158 = coord(1/19)
    
    Abstract
    Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
    Series
    Telepolis / Kultur und Medien
    Source
    https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
  12. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.00
    0.0012510429 = product of:
      0.023769816 = sum of:
        0.023769816 = weight(_text_:und in 868) [ClassicSimilarity], result of:
          0.023769816 = score(doc=868,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.438048 = fieldWeight in 868, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
      0.05263158 = coord(1/19)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
    Source
    https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
  13. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.00
    0.0012113171 = product of:
      0.023015026 = sum of:
        0.023015026 = weight(_text_:und in 128) [ClassicSimilarity], result of:
          0.023015026 = score(doc=128,freq=24.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42413816 = fieldWeight in 128, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.05263158 = coord(1/19)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  14. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.00
    0.0012113171 = product of:
      0.023015026 = sum of:
        0.023015026 = weight(_text_:und in 1044) [ClassicSimilarity], result of:
          0.023015026 = score(doc=1044,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42413816 = fieldWeight in 1044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
      0.05263158 = coord(1/19)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  15. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.00
    0.001083435 = product of:
      0.020585265 = sum of:
        0.020585265 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.020585265 = score(doc=877,freq=30.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
      0.05263158 = coord(1/19)
    
    Abstract
    ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
    Source
    https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
  16. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2022) 0.00
    0.001083435 = product of:
      0.020585265 = sum of:
        0.020585265 = weight(_text_:und in 929) [ClassicSimilarity], result of:
          0.020585265 = score(doc=929,freq=30.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3793607 = fieldWeight in 929, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
      0.05263158 = coord(1/19)
    
    Abstract
    Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
    Content
    "Seit dem 30. November 2022 ist meine Welt - und die vieler Bildungsexpertinnen und Bildungsexperten - gefühlt eine andere Welt, die uns in eine "Neuzeit" führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen. Der Ableger und Prototyp ChatGPT des derzeit (zumindest in der westlichen Welt) führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30. November veröffentlicht und ist seit dieser Zeit für jeden frei zugänglich und kostenlos. Was zunächst als unspektakuläre Ankündigung von OpenAI anmutete, nämlich das seit 2020 bereits verfügbare KI-Sprachmodell GPT-3 nun in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation bereitzustellen, entpuppt sich in der Anwendung - aus Sicht der Nutzerinnen und Nutzer - als Meilenstein der KI-Entwicklung. Fakt ist, dass die Leistungsvielfalt und -stärke von ChatGPT selbst IT-Expertinnen und -Experten überrascht hat und sie zu einer Fülle von Superlativen in der Bewertung veranlasst, jedoch immer in Kombination mit Hinweisen zur fehlenden Faktentreue und Verlässlichkeit derartiger generativer KI-Modelle. Mit WebGPT von OpenAI steht aber bereits ein Forschungsprototyp bereit, der mit integrierter Internetsuchfunktion die "Halluzinationen" aktueller GPT-Varianten ausmerzen könnte. Für den Bildungssektor stellt sich die Frage, wie sich das Lehren und Lernen an Hochschulen (und nicht nur dort) verändern wird, wenn derartige KI-Werkzeuge omnipräsent sind und mit ihrer Hilfe nicht nur die Hausarbeit "per Knopfdruck" erstellt werden kann. Beeindruckend ist zudem die fachliche Bandbreite von ChatGPT, siehe den Tweet von @davidtsong, der ChatGPT dem Studierfähigkeitstest SAT unterzogen hat."
    Source
    https://www.forschung-und-lehre.de/lehre/chatgpt-ein-meilenstein-der-ki-entwicklung-5271
  17. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.00
    0.0010490314 = product of:
      0.019931596 = sum of:
        0.019931596 = weight(_text_:und in 3206) [ClassicSimilarity], result of:
          0.019931596 = score(doc=3206,freq=18.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3673144 = fieldWeight in 3206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
      0.05263158 = coord(1/19)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  18. Szöke, D.: ChatGPT : wie Sie die KI ausprobieren können (2022) 0.00
    0.0010278366 = product of:
      0.019528896 = sum of:
        0.019528896 = weight(_text_:und in 834) [ClassicSimilarity], result of:
          0.019528896 = score(doc=834,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.35989314 = fieldWeight in 834, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=834)
      0.05263158 = coord(1/19)
    
    Abstract
    Wo Sie sich anmelden können, wie Sie mit der künstlichen Intelligenz interagieren können und worauf Sie achten sollten.
    Content
    ChatGPT ist ein KI-Chatbot, der menschliche Texteingaben verstehen und möglichst natürlich antworten soll - und für ziemlich viel Begeisterung im Netz sorgt. Jeder kann mit der "künstlichen Intelligenz" einen Dialog führen oder sie um passenden Code oder ein paar launig klingende Gedichtzeilen bitten. Ausprobieren können Sie das kostenlos - wir zeigen Ihnen, wie das geht. Account einrichten ChatGPT wird auf der OpenAI-Website angeboten - allerdings nur für registrierte Nutzer. Um einen OpenAI-Account zu erstellen, muss man eine E-Mail-Adresse und eine Handynummer angeben, gegebenenfalls müssen Sie noch ein Captcha lösen. Die E-Mail-Adresse noreply@tm.openai.com sendet einen Verifizierungslink, welcher Sie zurück zur Website und zum nächsten Schritt führt. Nach der Auswahl des Benutzernamens müssen Sie nur noch den Nutzungsbedingungen zustimmen und eine Verifizierung über die Handynummer vornehmen. Letztere passiert über das Zusenden eines sechsstelligen Bestätigungs-Codes.
  19. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.00
    0.001009229 = product of:
      0.01917535 = sum of:
        0.01917535 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.01917535 = score(doc=572,freq=34.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.35337773 = fieldWeight in 572, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.05263158 = coord(1/19)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
    Imprint
    Hildesheim : Universität Hildesheim / Fachbereich III; Informations- und Kommunikationswissenschaften
  20. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 3977) [ClassicSimilarity], result of:
          0.018602824 = score(doc=3977,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 3977, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.05263158 = coord(1/19)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.