Search (666 results, page 1 of 34)

  • × theme_ss:"Computerlinguistik"
  1. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.37
    0.37199926 = product of:
      0.5951988 = sum of:
        0.14487505 = weight(_text_:informatik in 1714) [ClassicSimilarity], result of:
          0.14487505 = score(doc=1714,freq=10.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.63029057 = fieldWeight in 1714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.15122968 = weight(_text_:beziehung in 1714) [ClassicSimilarity], result of:
          0.15122968 = score(doc=1714,freq=4.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.5121268 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.24226214 = weight(_text_:mensch in 1714) [ClassicSimilarity], result of:
          0.24226214 = score(doc=1714,freq=20.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.9692689 = fieldWeight in 1714, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.032342933 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.032342933 = score(doc=1714,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.024489027 = product of:
          0.048978053 = sum of:
            0.048978053 = weight(_text_:gesellschaft in 1714) [ClassicSimilarity], result of:
              0.048978053 = score(doc=1714,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.24507684 = fieldWeight in 1714, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1714)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    BK
    54.80 Angewandte Informatik
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    54.80 Angewandte Informatik
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    Field
    Informatik
    RSWK
    Sozialverhalten / Mensch-Maschine-Kommunikation
    Mensch-Maschine-Kommunikation / Sprache (BVB)
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Subject
    Sozialverhalten / Mensch-Maschine-Kommunikation
    Mensch-Maschine-Kommunikation / Sprache (BVB)
  2. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.19
    0.18525653 = product of:
      0.29641044 = sum of:
        0.09162703 = weight(_text_:informatik in 2380) [ClassicSimilarity], result of:
          0.09162703 = score(doc=2380,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.39863077 = fieldWeight in 2380, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.015271572 = weight(_text_:in in 2380) [ClassicSimilarity], result of:
          0.015271572 = score(doc=2380,freq=22.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.24922498 = fieldWeight in 2380, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.04882597 = weight(_text_:zu in 2380) [ClassicSimilarity], result of:
          0.04882597 = score(doc=2380,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.36590594 = fieldWeight in 2380, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.10834292 = weight(_text_:mensch in 2380) [ClassicSimilarity], result of:
          0.10834292 = score(doc=2380,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.43347025 = fieldWeight in 2380, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.032342933 = weight(_text_:und in 2380) [ClassicSimilarity], result of:
          0.032342933 = score(doc=2380,freq=14.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.32394084 = fieldWeight in 2380, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.625 = coord(5/8)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
    Footnote
    Masterthesis zur Erlangung des akademischen Grades Master of Science (M.Sc.) vorgelegt an der Fachhochschule Köln / Fakultät für Informatik und Ingenieurswissenschaften im Studiengang Medieninformatik.
    Imprint
    Gummersbach : Fakultät für Informatik und Ingenieurswissenschaften
    RSWK
    Mensch-Maschine-Kommunikation
    Subject
    Mensch-Maschine-Kommunikation
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Strube, M.: Kreativ durch Analogien (2011) 0.18
    0.18097506 = product of:
      0.2895601 = sum of:
        0.090706125 = weight(_text_:informatik in 4805) [ClassicSimilarity], result of:
          0.090706125 = score(doc=4805,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.3946243 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.0064463727 = weight(_text_:in in 4805) [ClassicSimilarity], result of:
          0.0064463727 = score(doc=4805,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.10520181 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.04323236 = weight(_text_:zu in 4805) [ClassicSimilarity], result of:
          0.04323236 = score(doc=4805,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.32398695 = fieldWeight in 4805, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.10725402 = weight(_text_:mensch in 4805) [ClassicSimilarity], result of:
          0.10725402 = score(doc=4805,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.42911363 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.041921236 = weight(_text_:und in 4805) [ClassicSimilarity], result of:
          0.041921236 = score(doc=4805,freq=12.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.41987535 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
      0.625 = coord(5/8)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
  4. Krause, J.: Mensch-Maschine-Interaktion in natürlicher Sprache : Evaluierungsstudien zu praxisorientierten Frage-Antwort-Systemen und ihre Methodik (1982) 0.17
    0.16847353 = product of:
      0.33694705 = sum of:
        0.012892745 = weight(_text_:in in 8964) [ClassicSimilarity], result of:
          0.012892745 = score(doc=8964,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.21040362 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.061139785 = weight(_text_:zu in 8964) [ClassicSimilarity], result of:
          0.061139785 = score(doc=8964,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.4581867 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.21450804 = weight(_text_:mensch in 8964) [ClassicSimilarity], result of:
          0.21450804 = score(doc=8964,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.85822725 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.04840647 = weight(_text_:und in 8964) [ClassicSimilarity], result of:
          0.04840647 = score(doc=8964,freq=4.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.4848303 = fieldWeight in 8964, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
      0.5 = coord(4/8)
    
    Series
    Sprache und Information; 1
  5. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.14
    0.1421929 = product of:
      0.18959054 = sum of:
        0.045353062 = weight(_text_:informatik in 5759) [ClassicSimilarity], result of:
          0.045353062 = score(doc=5759,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.19731215 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.012060059 = weight(_text_:in in 5759) [ClassicSimilarity], result of:
          0.012060059 = score(doc=5759,freq=28.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.19681457 = fieldWeight in 5759, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.030569892 = weight(_text_:zu in 5759) [ClassicSimilarity], result of:
          0.030569892 = score(doc=5759,freq=8.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.22909334 = fieldWeight in 5759, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.05362701 = weight(_text_:mensch in 5759) [ClassicSimilarity], result of:
          0.05362701 = score(doc=5759,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.21455681 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.03729969 = weight(_text_:und in 5759) [ClassicSimilarity], result of:
          0.03729969 = score(doc=5759,freq=38.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.3735868 = fieldWeight in 5759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.010680832 = product of:
          0.021361664 = sum of:
            0.021361664 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.021361664 = score(doc=5759,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.5 = coord(1/2)
      0.75 = coord(6/8)
    
    Abstract
    Computer müssen lernen, die Sprache des Menschen zu verstehen. Forscher an der Uni Duisburg haben eine Methode entwickelt, mit der ein Rechner Informationen aus Radiobeiträgen herausfiltern kann.
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  6. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.12
    0.11956524 = product of:
      0.23913048 = sum of:
        0.007975319 = weight(_text_:in in 566) [ClassicSimilarity], result of:
          0.007975319 = score(doc=566,freq=6.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.1301535 = fieldWeight in 566, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.053486172 = weight(_text_:zu in 566) [ClassicSimilarity], result of:
          0.053486172 = score(doc=566,freq=12.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.40082988 = fieldWeight in 566, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.15322003 = weight(_text_:mensch in 566) [ClassicSimilarity], result of:
          0.15322003 = score(doc=566,freq=8.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.61301947 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.024448961 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.024448961 = score(doc=566,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
      0.5 = coord(4/8)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  7. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.12
    0.1181775 = product of:
      0.18908401 = sum of:
        0.013813656 = weight(_text_:in in 5557) [ClassicSimilarity], result of:
          0.013813656 = score(doc=5557,freq=18.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.22543246 = fieldWeight in 5557, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.04882597 = weight(_text_:zu in 5557) [ClassicSimilarity], result of:
          0.04882597 = score(doc=5557,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.36590594 = fieldWeight in 5557, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.076610014 = weight(_text_:mensch in 5557) [ClassicSimilarity], result of:
          0.076610014 = score(doc=5557,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.30650973 = fieldWeight in 5557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.03457605 = weight(_text_:und in 5557) [ClassicSimilarity], result of:
          0.03457605 = score(doc=5557,freq=16.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34630734 = fieldWeight in 5557, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.015258333 = product of:
          0.030516665 = sum of:
            0.030516665 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.030516665 = score(doc=5557,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  8. Deutsche Forschungsgemeinschaft: Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG (2023) 0.11
    0.10851786 = product of:
      0.21703573 = sum of:
        0.0073672836 = weight(_text_:in in 991) [ClassicSimilarity], result of:
          0.0073672836 = score(doc=991,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.120230645 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.12257602 = weight(_text_:mensch in 991) [ClassicSimilarity], result of:
          0.12257602 = score(doc=991,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.49041557 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.047909983 = weight(_text_:und in 991) [ClassicSimilarity], result of:
          0.047909983 = score(doc=991,freq=12.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.47985753 = fieldWeight in 991, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.03918244 = product of:
          0.07836488 = sum of:
            0.07836488 = weight(_text_:gesellschaft in 991) [ClassicSimilarity], result of:
              0.07836488 = score(doc=991,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.39212292 = fieldWeight in 991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=991)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Die Einsatzmöglichkeiten von "Künstlicher Intelligenz" (KI) beschäftigen derzeit große Teile der Gesellschaft. Anlass ist insbesondere die Entwicklung generativer Modelle für die Text- und Bilderstellung wie "ChatGPT" und "DALL-E", die eine Interaktion zwischen Mensch und technischem System in gesprochener oder Text-/Bildsprache ermöglichen, und ihre Bereitstellung für die Allgemeinheit.
  9. Linguistik und neue Medien (1998) 0.10
    0.10345477 = product of:
      0.20690954 = sum of:
        0.12958018 = weight(_text_:informatik in 5770) [ClassicSimilarity], result of:
          0.12958018 = score(doc=5770,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.563749 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.009209105 = weight(_text_:in in 5770) [ClassicSimilarity], result of:
          0.009209105 = score(doc=5770,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.15028831 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.043671276 = weight(_text_:zu in 5770) [ClassicSimilarity], result of:
          0.043671276 = score(doc=5770,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.32727623 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.024448961 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.024448961 = score(doc=5770,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
      0.5 = coord(4/8)
    
    Footnote
    Publikation zu einem Kongress 1997 in Leipzig
    Series
    DUV: Informatik
  10. Räwel, J.: Automatisierte Kommunikation (2023) 0.10
    0.1017936 = product of:
      0.2035872 = sum of:
        0.01302364 = weight(_text_:in in 909) [ClassicSimilarity], result of:
          0.01302364 = score(doc=909,freq=16.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.21253976 = fieldWeight in 909, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.057771675 = weight(_text_:zu in 909) [ClassicSimilarity], result of:
          0.057771675 = score(doc=909,freq=14.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.4329458 = fieldWeight in 909, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.10834292 = weight(_text_:mensch in 909) [ClassicSimilarity], result of:
          0.10834292 = score(doc=909,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.43347025 = fieldWeight in 909, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.024448961 = weight(_text_:und in 909) [ClassicSimilarity], result of:
          0.024448961 = score(doc=909,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 909, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
      0.5 = coord(4/8)
    
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
    Series
    Telepolis / Kultur und Medien
  11. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.10
    0.09619649 = product of:
      0.19239298 = sum of:
        0.012182501 = weight(_text_:in in 123) [ClassicSimilarity], result of:
          0.012182501 = score(doc=123,freq=14.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.19881277 = fieldWeight in 123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.10693553 = weight(_text_:beziehung in 123) [ClassicSimilarity], result of:
          0.10693553 = score(doc=123,freq=2.0), product of:
            0.29529732 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.045047637 = queryNorm
            0.36212835 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.04882597 = weight(_text_:zu in 123) [ClassicSimilarity], result of:
          0.04882597 = score(doc=123,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.36590594 = fieldWeight in 123, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.024448961 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.024448961 = score(doc=123,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 123, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
      0.5 = coord(4/8)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  12. Thomas, I.S.; Wang, J.; GPT-3: Was euch zu Menschen macht : Antworten einer künstlichen Intelligenz auf die großen Fragen des Lebens (2022) 0.09
    0.09352449 = product of:
      0.18704899 = sum of:
        0.005525463 = weight(_text_:in in 878) [ClassicSimilarity], result of:
          0.005525463 = score(doc=878,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.09017298 = fieldWeight in 878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.06418341 = weight(_text_:zu in 878) [ClassicSimilarity], result of:
          0.06418341 = score(doc=878,freq=12.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.48099583 = fieldWeight in 878, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.09193201 = weight(_text_:mensch in 878) [ClassicSimilarity], result of:
          0.09193201 = score(doc=878,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.36781168 = fieldWeight in 878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.025408106 = weight(_text_:und in 878) [ClassicSimilarity], result of:
          0.025408106 = score(doc=878,freq=6.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.2544829 = fieldWeight in 878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
      0.5 = coord(4/8)
    
    Abstract
    Das erste durch KI verfasste Weisheitsbuch. »Die Künstliche Intelligenz sieht den Menschen, wie er ist. Es gibt für sie keinen Gott, keine Rituale, keinen Himmel, keine Hölle, keine Engel. Es gibt für sie nur empfindsame Wesen.« GPT-3. Dieses Buch enthält Weisheitstexte, die durch die modernste KI im Bereich der Spracherkennung verfasst wurden. Es ist die GPT-3, die durch die Technikerin Jasmine Wang gesteuert wird. Die originären Texte von GPT-3 werden von dem international bekannten Dichter Iain S. Thomas kuratiert. Die Basis von GPT-3 reicht von den Weisheitsbücher der Menschheit bis hin zu modernen Texten. GPT-3 antwortet auf Fragen wie: Was macht den Mensch zum Menschen? Was bedeutet es zu lieben? Wie führen wir ein erfülltes Leben? etc. und ist in der Lage, eigene Sätze zu kreieren. So wird eine zeitgenössische und noch nie dagewesene Erforschung von Sinn und Spiritualität geschaffen, die zu einem neuen Verständnis dessen inspiriert, was uns zu Menschen macht.
  13. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.09
    0.09331958 = product of:
      0.18663916 = sum of:
        0.07330162 = weight(_text_:informatik in 5218) [ClassicSimilarity], result of:
          0.07330162 = score(doc=5218,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.3189046 = fieldWeight in 5218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
        0.0132815605 = weight(_text_:in in 5218) [ClassicSimilarity], result of:
          0.0132815605 = score(doc=5218,freq=26.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.2167489 = fieldWeight in 5218, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
        0.055240285 = weight(_text_:zu in 5218) [ClassicSimilarity], result of:
          0.055240285 = score(doc=5218,freq=20.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.41397533 = fieldWeight in 5218, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
        0.044815682 = weight(_text_:und in 5218) [ClassicSimilarity], result of:
          0.044815682 = score(doc=5218,freq=42.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.44886562 = fieldWeight in 5218, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
      0.5 = coord(4/8)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  14. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.09
    0.09199645 = product of:
      0.14719433 = sum of:
        0.008527751 = weight(_text_:in in 4044) [ClassicSimilarity], result of:
          0.008527751 = score(doc=4044,freq=14.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.13916893 = fieldWeight in 4044, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.026474306 = weight(_text_:zu in 4044) [ClassicSimilarity], result of:
          0.026474306 = score(doc=4044,freq=6.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.19840068 = fieldWeight in 4044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.07584004 = weight(_text_:mensch in 4044) [ClassicSimilarity], result of:
          0.07584004 = score(doc=4044,freq=4.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.30342916 = fieldWeight in 4044, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.025671406 = weight(_text_:und in 4044) [ClassicSimilarity], result of:
          0.025671406 = score(doc=4044,freq=18.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.25712007 = fieldWeight in 4044, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.010680832 = product of:
          0.021361664 = sum of:
            0.021361664 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.021361664 = score(doc=4044,freq=2.0), product of:
                0.15774915 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045047637 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  15. Wolfangel, E.: Ich verstehe (2017) 0.09
    0.08978607 = product of:
      0.2394295 = sum of:
        0.06176051 = weight(_text_:zu in 3976) [ClassicSimilarity], result of:
          0.06176051 = score(doc=3976,freq=4.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.46283847 = fieldWeight in 3976, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.078125 = fieldNorm(doc=3976)
        0.15322003 = weight(_text_:mensch in 3976) [ClassicSimilarity], result of:
          0.15322003 = score(doc=3976,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.61301947 = fieldWeight in 3976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.078125 = fieldNorm(doc=3976)
        0.024448961 = weight(_text_:und in 3976) [ClassicSimilarity], result of:
          0.024448961 = score(doc=3976,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 3976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3976)
      0.375 = coord(3/8)
    
    Abstract
    Computer werden immer besser darin, den Sinn von Sprache zu entschlüsseln. Das ist zwar bequem, wenn man seinem Handy einfach sagen kann, was es tun soll, ohne tippen zu müssen. Aber das bedeutet auch, dass sich E-Mails und andere Botschaften maschinell auswerten lassen. Da wird inzwischen sogar den Forschern mulmig.
    Series
    Wissen: Technik, Forschung, Umwelt, Mensch
  16. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.09
    0.08809038 = product of:
      0.17618077 = sum of:
        0.09162703 = weight(_text_:informatik in 126) [ClassicSimilarity], result of:
          0.09162703 = score(doc=126,freq=4.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.39863077 = fieldWeight in 126, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.011278803 = weight(_text_:in in 126) [ClassicSimilarity], result of:
          0.011278803 = score(doc=126,freq=12.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.18406484 = fieldWeight in 126, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.04882597 = weight(_text_:zu in 126) [ClassicSimilarity], result of:
          0.04882597 = score(doc=126,freq=10.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.36590594 = fieldWeight in 126, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.024448961 = weight(_text_:und in 126) [ClassicSimilarity], result of:
          0.024448961 = score(doc=126,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 126, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
      0.5 = coord(4/8)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  17. Lutz-Westphal, B.: ChatGPT und der "Faktor Mensch" im schulischen Mathematikunterricht (2023) 0.08
    0.0830026 = product of:
      0.22134027 = sum of:
        0.043671276 = weight(_text_:zu in 930) [ClassicSimilarity], result of:
          0.043671276 = score(doc=930,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.32727623 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.15322003 = weight(_text_:mensch in 930) [ClassicSimilarity], result of:
          0.15322003 = score(doc=930,freq=2.0), product of:
            0.24994317 = queryWeight, product of:
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.045047637 = queryNorm
            0.61301947 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.548419 = idf(docFreq=467, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.024448961 = weight(_text_:und in 930) [ClassicSimilarity], result of:
          0.024448961 = score(doc=930,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.24487628 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
      0.375 = coord(3/8)
    
    Abstract
    ChatGPT wird Unterrricht verändern - hoffentlich. Ein paar erste Gedanken zu den Chancen, die sich durch den Chatbot eröffnen.
  18. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.08
    0.08097547 = product of:
      0.16195095 = sum of:
        0.090706125 = weight(_text_:informatik in 3977) [ClassicSimilarity], result of:
          0.090706125 = score(doc=3977,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.3946243 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
        0.0064463727 = weight(_text_:in in 3977) [ClassicSimilarity], result of:
          0.0064463727 = score(doc=3977,freq=2.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.10520181 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
        0.030569892 = weight(_text_:zu in 3977) [ClassicSimilarity], result of:
          0.030569892 = score(doc=3977,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.22909334 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
        0.034228545 = weight(_text_:und in 3977) [ClassicSimilarity], result of:
          0.034228545 = score(doc=3977,freq=8.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.34282678 = fieldWeight in 3977, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.5 = coord(4/8)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
    Field
    Informatik
  19. Schulz, A.: Motivierte Maschinen : Sprachcomputer (2002) 0.08
    0.080849364 = product of:
      0.21559832 = sum of:
        0.12958018 = weight(_text_:informatik in 1309) [ClassicSimilarity], result of:
          0.12958018 = score(doc=1309,freq=2.0), product of:
            0.22985439 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.045047637 = queryNorm
            0.563749 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
        0.043671276 = weight(_text_:zu in 1309) [ClassicSimilarity], result of:
          0.043671276 = score(doc=1309,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.32727623 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
        0.042346843 = weight(_text_:und in 1309) [ClassicSimilarity], result of:
          0.042346843 = score(doc=1309,freq=6.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.42413816 = fieldWeight in 1309, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
      0.375 = coord(3/8)
    
    Abstract
    Experten für Künstliche Intelligenz simulieren den menschlichen Spracherwerb per Computer. Dazu imitieren sie Funktionsprinzipien des Gehirns. Ergebnis: ein Programm, das ab und zu hungrig wird
    Field
    Informatik
    Source
    Gehirn und Geist: Das Magazin für Hirnforschung und Psychologie. 2002, H.3, S.54-56
  20. Engerer, V.: Indexierungstheorie für Linguisten : zu einigen natürlichsprachlichen Zügen in künstlichen Indexsprachen (2014) 0.08
    0.07807316 = product of:
      0.15614632 = sum of:
        0.01562837 = weight(_text_:in in 3339) [ClassicSimilarity], result of:
          0.01562837 = score(doc=3339,freq=4.0), product of:
            0.061276253 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045047637 = queryNorm
            0.25504774 = fieldWeight in 3339, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.052405532 = weight(_text_:zu in 3339) [ClassicSimilarity], result of:
          0.052405532 = score(doc=3339,freq=2.0), product of:
            0.13343859 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.045047637 = queryNorm
            0.39273146 = fieldWeight in 3339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.029338751 = weight(_text_:und in 3339) [ClassicSimilarity], result of:
          0.029338751 = score(doc=3339,freq=2.0), product of:
            0.099842094 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045047637 = queryNorm
            0.29385152 = fieldWeight in 3339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.05877366 = product of:
          0.11754732 = sum of:
            0.11754732 = weight(_text_:gesellschaft in 3339) [ClassicSimilarity], result of:
              0.11754732 = score(doc=3339,freq=2.0), product of:
                0.19984774 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.045047637 = queryNorm
                0.58818436 = fieldWeight in 3339, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3339)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Source
    Dialekte, Konzepte, Kontakte. Ergebnisse des Arbeitstreffens der Gesellschaft für Sprache und Sprachen, GeSuS e.V., 31. Mai - 1. Juni 2013 in Freiburg/Breisgau. Hrsg.: V. Schönenberger et al

Years

Languages

Types

  • a 523
  • el 82
  • m 82
  • s 31
  • x 13
  • p 7
  • d 3
  • b 2
  • n 1
  • r 1
  • More… Less…

Subjects

Classifications