Search (83 results, page 2 of 5)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"el"
  1. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.00
    0.00441061 = product of:
      0.02646366 = sum of:
        0.02646366 = weight(_text_:der in 868) [ClassicSimilarity], result of:
          0.02646366 = score(doc=868,freq=4.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.27922085 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
      0.16666667 = coord(1/6)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
  2. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.00
    0.0043586167 = product of:
      0.0261517 = sum of:
        0.0261517 = weight(_text_:der in 3206) [ClassicSimilarity], result of:
          0.0261517 = score(doc=3206,freq=10.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.27592933 = fieldWeight in 3206, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
      0.16666667 = coord(1/6)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
  3. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.00
    0.0043586167 = product of:
      0.0261517 = sum of:
        0.0261517 = weight(_text_:der in 128) [ClassicSimilarity], result of:
          0.0261517 = score(doc=128,freq=10.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.27592933 = fieldWeight in 128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.16666667 = coord(1/6)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  4. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.004216835 = product of:
      0.025301008 = sum of:
        0.025301008 = weight(_text_:der in 3385) [ClassicSimilarity], result of:
          0.025301008 = score(doc=3385,freq=26.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.2669536 = fieldWeight in 3385, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.16666667 = coord(1/6)
    
    Abstract
    Holländische Wissenschaftler glauben, mit der "normalisierten Google-Distanz" von Begriffen einer Künstlichen Intelligenz die Bedeutung von Worten automatisch lehren zu können
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
    Footnote
    Artikel in der ListeTelepolis vom 27.01.2005
  5. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.00
    0.003898465 = product of:
      0.02339079 = sum of:
        0.02339079 = weight(_text_:der in 925) [ClassicSimilarity], result of:
          0.02339079 = score(doc=925,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.2467987 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
      0.16666667 = coord(1/6)
    
  6. Heaven, D.; Hinton, G.: "Erschreckend, wenn man das sieht" : KI-Pionier Geoffrey Hinton über KI-Modelle (2023) 0.00
    0.003898465 = product of:
      0.02339079 = sum of:
        0.02339079 = weight(_text_:der in 957) [ClassicSimilarity], result of:
          0.02339079 = score(doc=957,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.2467987 = fieldWeight in 957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=957)
      0.16666667 = coord(1/6)
    
    Abstract
    Ohne den britisch-kanadischen Forscher hätten sich tiefe neuronale Netze kaum durchgesetzt. Doch nun hinterfragt der Ex-Google-Mitarbeiter Hinton seine Arbeit.
  7. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.00
    0.0038323752 = product of:
      0.02299425 = sum of:
        0.02299425 = product of:
          0.0459885 = sum of:
            0.0459885 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.0459885 = score(doc=835,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    29.12.2022 18:22:55
  8. Rieger, F.: Lügende Computer (2023) 0.00
    0.0038323752 = product of:
      0.02299425 = sum of:
        0.02299425 = product of:
          0.0459885 = sum of:
            0.0459885 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.0459885 = score(doc=912,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    16. 3.2023 19:22:55
  9. Räwel, J.: Automatisierte Kommunikation (2023) 0.00
    0.0033761698 = product of:
      0.020257019 = sum of:
        0.020257019 = weight(_text_:der in 909) [ClassicSimilarity], result of:
          0.020257019 = score(doc=909,freq=6.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.21373394 = fieldWeight in 909, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
      0.16666667 = coord(1/6)
    
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
  10. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    0.0033079577 = product of:
      0.019847745 = sum of:
        0.019847745 = weight(_text_:der in 331) [ClassicSimilarity], result of:
          0.019847745 = score(doc=331,freq=16.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.20941564 = fieldWeight in 331, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  11. Bubenhofer, N.: Einführung in die Korpuslinguistik : Praktische Grundlagen und Werkzeuge (2006) 0.00
    0.003118772 = product of:
      0.018712632 = sum of:
        0.018712632 = weight(_text_:der in 3126) [ClassicSimilarity], result of:
          0.018712632 = score(doc=3126,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.19743896 = fieldWeight in 3126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3126)
      0.16666667 = coord(1/6)
    
    Abstract
    Seit über zwei Jahren ist die Einführung in die Korpuslinguistik online! Und sie wird rege benutzt, so z.B. in Veranstaltungen an den Universitäten Heidelberg (Ekkehard Felder), Jena (Peter Gallmann), Zürich (Christa Dürscheid), Kiel (Ulrike Mosel), Leipzig (Uwe Quasthoff), am Institut für Computerlinguistik in Zürich (Simon Clematide); die Website von COSMAS II des IDS, das Korpus Südtirol, die LinseLinks, der Gateway to Corpus Linguistics und die Wikipedia verweisen darauf.
  12. Bischoff, M.: Wie eine KI lernt, sich selbst zu erklären (2023) 0.00
    0.003118772 = product of:
      0.018712632 = sum of:
        0.018712632 = weight(_text_:der in 956) [ClassicSimilarity], result of:
          0.018712632 = score(doc=956,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.19743896 = fieldWeight in 956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
      0.16666667 = coord(1/6)
    
    Abstract
    Große Sprachmodelle wie ChatGPT und Co. neigen dazu, Dinge zu erfinden. Durch einen neuen Ansatz können die Systeme ihre Antworten nun erklären - zumindest teilweise. Vorstellung von Modulen (Luminous, AtMan), die die Zusammenstellung der Aussagen in den Antworten analysieren und erklären.
  13. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.00
    0.0027289258 = product of:
      0.016373554 = sum of:
        0.016373554 = weight(_text_:der in 3977) [ClassicSimilarity], result of:
          0.016373554 = score(doc=3977,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.17275909 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.16666667 = coord(1/6)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  14. Altmann, E.G.; Cristadoro, G.; Esposti, M.D.: On the origin of long-range correlations in texts (2012) 0.00
    0.002339079 = product of:
      0.014034474 = sum of:
        0.014034474 = weight(_text_:der in 330) [ClassicSimilarity], result of:
          0.014034474 = score(doc=330,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.14807922 = fieldWeight in 330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=330)
      0.16666667 = coord(1/6)
    
    Content
    Vgl. die Pressemitteilung zum Artikel: Auf der Suche nach dem entscheidenden Wort: die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern [11. Juli 2012]. Unter: http://www.mpg.de/5894319/statistische_Textanalyse?filter_order=L. Vgl. auch: http://arxiv.org/list/cs.CL/current.
  15. Caseiro, D.: Automatic language identification bibliography : Last Update: 20 September 1999 (1999) 0.00
    0.0022598682 = product of:
      0.013559209 = sum of:
        0.013559209 = weight(_text_:e in 1842) [ClassicSimilarity], result of:
          0.013559209 = score(doc=1842,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2223318 = fieldWeight in 1842, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=1842)
      0.16666667 = coord(1/6)
    
    Language
    e
  16. Roose, K.: ¬The brilliance and weirdness of ChatGPT (2022) 0.00
    0.0019370299 = product of:
      0.011622179 = sum of:
        0.011622179 = weight(_text_:e in 853) [ClassicSimilarity], result of:
          0.011622179 = score(doc=853,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.19057012 = fieldWeight in 853, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=853)
      0.16666667 = coord(1/6)
    
    Language
    e
  17. Metz, C.: ¬The new chatbots could change the world : can you trust them? (2022) 0.00
    0.0019370299 = product of:
      0.011622179 = sum of:
        0.011622179 = weight(_text_:e in 854) [ClassicSimilarity], result of:
          0.011622179 = score(doc=854,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.19057012 = fieldWeight in 854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=854)
      0.16666667 = coord(1/6)
    
    Language
    e
  18. Huge "foundation models" are turbo-charging AI progress : The world that Bert built (2022) 0.00
    0.0019370299 = product of:
      0.011622179 = sum of:
        0.011622179 = weight(_text_:e in 922) [ClassicSimilarity], result of:
          0.011622179 = score(doc=922,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.19057012 = fieldWeight in 922, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=922)
      0.16666667 = coord(1/6)
    
    Language
    e
  19. Snajder, J.: Distributional semantics of multi-word expressions (2013) 0.00
    0.0016141916 = product of:
      0.009685149 = sum of:
        0.009685149 = weight(_text_:e in 2868) [ClassicSimilarity], result of:
          0.009685149 = score(doc=2868,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.15880844 = fieldWeight in 2868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=2868)
      0.16666667 = coord(1/6)
    
    Language
    e
  20. Hofstadter, D.: Artificial neural networks today are not conscious (2022) 0.00
    0.0016141916 = product of:
      0.009685149 = sum of:
        0.009685149 = weight(_text_:e in 860) [ClassicSimilarity], result of:
          0.009685149 = score(doc=860,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.15880844 = fieldWeight in 860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=860)
      0.16666667 = coord(1/6)
    
    Language
    e

Years

Languages

  • e 50
  • d 33

Types

  • a 48
  • p 5
  • x 2
  • b 1
  • m 1
  • More… Less…