Search (35 results, page 2 of 2)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"el"
  1. Frobese, D.T.: Klassifikationsaufgaben mit der SENTRAX : Konkreter Fall: Automatische Detektion von SPAM (2006) 0.00
    9.690537E-4 = product of:
      0.01841202 = sum of:
        0.01841202 = weight(_text_:und in 5980) [ClassicSimilarity], result of:
          0.01841202 = score(doc=5980,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 5980, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5980)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Suchfunktionen des SENTRAX-Verfahrens werden für die Klassifizierung von Mails und im Besonderen für die Detektion von SPAM eingesetzt. Die Eigenschaften einer kontextähnlichen Suche und die Fehlertoleranz sollen genutzt werden, um SPAM Nachrichten treffsicher aufzuspüren.
    Footnote
    Beitrag der Proceedings des Fünften Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2006), Hildesheim, xx.x.2006.
  2. Bubenhofer, N.: Einführung in die Korpuslinguistik : Praktische Grundlagen und Werkzeuge (2006) 0.00
    9.690537E-4 = product of:
      0.01841202 = sum of:
        0.01841202 = weight(_text_:und in 3126) [ClassicSimilarity], result of:
          0.01841202 = score(doc=3126,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 3126, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3126)
      0.05263158 = coord(1/19)
    
    Abstract
    Seit über zwei Jahren ist die Einführung in die Korpuslinguistik online! Und sie wird rege benutzt, so z.B. in Veranstaltungen an den Universitäten Heidelberg (Ekkehard Felder), Jena (Peter Gallmann), Zürich (Christa Dürscheid), Kiel (Ulrike Mosel), Leipzig (Uwe Quasthoff), am Institut für Computerlinguistik in Zürich (Simon Clematide); die Website von COSMAS II des IDS, das Korpus Südtirol, die LinseLinks, der Gateway to Corpus Linguistics und die Wikipedia verweisen darauf.
  3. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.00
    9.690537E-4 = product of:
      0.01841202 = sum of:
        0.01841202 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.01841202 = score(doc=2818,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.05263158 = coord(1/19)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  4. Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016) 0.00
    8.84621E-4 = product of:
      0.016807798 = sum of:
        0.016807798 = weight(_text_:und in 2941) [ClassicSimilarity], result of:
          0.016807798 = score(doc=2941,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3097467 = fieldWeight in 2941, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2941)
      0.05263158 = coord(1/19)
    
    Abstract
    SyntaxNet zerlegt Sätze in ihre grammatikalischen Bestandteile und bestimmt die syntaktischen Beziehungen der Wörter untereinander. Das Framework ist Open Source und als TensorFlow Model implementiert. Ein Parser für natürliche Sprache ist eine Software, die Sätze in ihre grammatikalischen Bestandteile zerlegt. Diese Zerlegung ist notwendig, damit Computer Befehle verstehen oder Texte übersetzen können. Die digitalen Helfer wie Microsofts Cortana, Apples Siri und Google Now verwenden Parser, um Sätze wie "Stell den Wecker auf 5 Uhr!" richtig umzusetzen. SyntaxNet ist ein solcher Parser, den Google als TensorFlow Model veröffentlicht hat. Entwickler können eigene Modelle erstellen, und SnytaxNet bringt einen vortrainierten Parser für die englische Sprache mit, den seine Macher Parsey McParseface genannt haben.
    Content
    "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
    SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."
  5. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.00
    8.4792194E-4 = product of:
      0.016110517 = sum of:
        0.016110517 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.016110517 = score(doc=1047,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.05263158 = coord(1/19)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  6. Abbe: Hoffnungen auf Verbesserung polizeilicher Texte durch Chatbot GPT : eine Statusaufnahme (2023) 0.00
    7.91229E-4 = product of:
      0.015033351 = sum of:
        0.015033351 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.015033351 = score(doc=865,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Hoffnungen an den Einsatz von künstlicher Intelligenz sind hoch, auch in der polizeilichen Informationstechnik. Geradezu einen Hype ausgelöst hat die Veröffentlichung des Chatbots GPT vor wenigen Wochen. Der verspricht eine Beantwortung von Fragen und die Erstellung von Texten quasi wie ein Mensch. Das wäre ein immenser Fortschritt für die vielen Texte in polizeilichen Informations­systemen. Wie belastbar diese Hoffnungen sind, habe ich mir in einem Test mit Fragen und Textaufgaben näher angesehen.
  7. Bischoff, M.: Wie eine KI lernt, sich selbst zu erklären (2023) 0.00
    7.91229E-4 = product of:
      0.015033351 = sum of:
        0.015033351 = weight(_text_:und in 956) [ClassicSimilarity], result of:
          0.015033351 = score(doc=956,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 956, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
      0.05263158 = coord(1/19)
    
    Abstract
    Große Sprachmodelle wie ChatGPT und Co. neigen dazu, Dinge zu erfinden. Durch einen neuen Ansatz können die Systeme ihre Antworten nun erklären - zumindest teilweise. Vorstellung von Modulen (Luminous, AtMan), die die Zusammenstellung der Aussagen in den Antworten analysieren und erklären.
  8. Dampz, N.: ChatGPT interpretiert jetzt auch Bilder : Neue Version (2023) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 874) [ClassicSimilarity], result of:
          0.013287731 = score(doc=874,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 874, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=874)
      0.05263158 = coord(1/19)
    
    Abstract
    Das kalifornische Unternehmen Open AI hat eine neue Version ihres Chatbots ChatGPT vorgestellt. Auffallendste Neuerung: Die Software, die mit Künstlicher Intelligenz funktioniert und bisher auf Text ausgerichtet war, interpretiert nun auch Bilder.
  9. Räwel, J.: Automatisierte Kommunikation (2023) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 909) [ClassicSimilarity], result of:
          0.013287731 = score(doc=909,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 909, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
      0.05263158 = coord(1/19)
    
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
    Series
    Telepolis / Kultur und Medien
  10. Lutz-Westphal, B.: ChatGPT und der "Faktor Mensch" im schulischen Mathematikunterricht (2023) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 930) [ClassicSimilarity], result of:
          0.013287731 = score(doc=930,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
      0.05263158 = coord(1/19)
    
  11. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 1051) [ClassicSimilarity], result of:
          0.013287731 = score(doc=1051,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 1051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
      0.05263158 = coord(1/19)
    
    Abstract
    Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
  12. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.00
    6.923254E-4 = product of:
      0.013154183 = sum of:
        0.013154183 = weight(_text_:und in 5227) [ClassicSimilarity], result of:
          0.013154183 = score(doc=5227,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 5227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.05263158 = coord(1/19)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
  13. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.00
    6.923254E-4 = product of:
      0.013154183 = sum of:
        0.013154183 = weight(_text_:und in 866) [ClassicSimilarity], result of:
          0.013154183 = score(doc=866,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 866, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=866)
      0.05263158 = coord(1/19)
    
    Abstract
    ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
  14. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    6.634657E-4 = product of:
      0.012605849 = sum of:
        0.012605849 = weight(_text_:und in 331) [ClassicSimilarity], result of:
          0.012605849 = score(doc=331,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.23231003 = fieldWeight in 331, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.05263158 = coord(1/19)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  15. Kurz, C.: Womit sich Strafverfolger bald befassen müssen : ChatGPT (2023) 0.00
    5.594834E-4 = product of:
      0.010630185 = sum of:
        0.010630185 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.010630185 = score(doc=203,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19590102 = fieldWeight in 203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=203)
      0.05263158 = coord(1/19)
    
    Abstract
    Ein Europol-Bericht widmet sich den Folgen von ChatGPT, wenn Kriminelle die Fähigkeiten des Chatbots für sich ausnutzen: Es drohe vermehrt Phishing und noch mehr Desinformation. Ein Problem für die Strafverfolgung könne auch automatisiert erzeugter bösartiger Quellcode sein.