Search (280 results, page 1 of 14)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.19
    0.18563595 = product of:
      0.55690783 = sum of:
        0.042012032 = product of:
          0.1260361 = sum of:
            0.1260361 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.1260361 = score(doc=562,freq=2.0), product of:
                0.22425632 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026451524 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.1260361 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.1260361 = score(doc=562,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.1260361 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.1260361 = score(doc=562,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.1260361 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.1260361 = score(doc=562,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.1260361 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.1260361 = score(doc=562,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.021502897 = score(doc=562,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.33333334 = coord(6/18)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.15
    0.15171012 = product of:
      0.5461564 = sum of:
        0.042012032 = product of:
          0.1260361 = sum of:
            0.1260361 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.1260361 = score(doc=862,freq=2.0), product of:
                0.22425632 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026451524 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.1260361 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.1260361 = score(doc=862,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.1260361 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.1260361 = score(doc=862,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.1260361 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.1260361 = score(doc=862,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.1260361 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.1260361 = score(doc=862,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.2777778 = coord(5/18)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.14
    0.14302662 = product of:
      0.5148958 = sum of:
        0.1260361 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.1260361 = score(doc=563,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.1260361 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.1260361 = score(doc=563,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.1260361 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.1260361 = score(doc=563,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.1260361 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.1260361 = score(doc=563,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.021502897 = score(doc=563,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.05
    0.047856256 = product of:
      0.17228252 = sum of:
        0.06726922 = weight(_text_:allgemeines in 1714) [ClassicSimilarity], result of:
          0.06726922 = score(doc=1714,freq=4.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.44573617 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.018991448 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.018991448 = score(doc=1714,freq=14.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.018991448 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.018991448 = score(doc=1714,freq=14.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.051182073 = weight(_text_:technik in 1714) [ClassicSimilarity], result of:
          0.051182073 = score(doc=1714,freq=4.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3888021 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.015848318 = weight(_text_:des in 1714) [ClassicSimilarity], result of:
          0.015848318 = score(doc=1714,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.21635216 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
      0.2777778 = coord(5/18)
    
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
  5. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.05
    0.046529066 = product of:
      0.1395872 = sum of:
        0.032044906 = weight(_text_:medien in 5759) [ClassicSimilarity], result of:
          0.032044906 = score(doc=5759,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.25739387 = fieldWeight in 5759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.021902008 = weight(_text_:und in 5759) [ClassicSimilarity], result of:
          0.021902008 = score(doc=5759,freq=38.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3735868 = fieldWeight in 5759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.021902008 = weight(_text_:und in 5759) [ClassicSimilarity], result of:
          0.021902008 = score(doc=5759,freq=38.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3735868 = fieldWeight in 5759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.04387949 = weight(_text_:technik in 5759) [ClassicSimilarity], result of:
          0.04387949 = score(doc=5759,freq=6.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3333284 = fieldWeight in 5759, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.013587102 = weight(_text_:des in 5759) [ClassicSimilarity], result of:
          0.013587102 = score(doc=5759,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18548335 = fieldWeight in 5759, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.0062716785 = product of:
          0.012543357 = sum of:
            0.012543357 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.012543357 = score(doc=5759,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.5 = coord(1/2)
      0.33333334 = coord(6/18)
    
    Abstract
    Computer müssen lernen, die Sprache des Menschen zu verstehen. Forscher an der Uni Duisburg haben eine Methode entwickelt, mit der ein Rechner Informationen aus Radiobeiträgen herausfiltern kann.
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  6. Erbach, G.: Sprachdialogsysteme für Telefondienste : Stand der Technik und zukünftige Entwicklungen (2000) 0.04
    0.038890574 = product of:
      0.14000607 = sum of:
        0.032370243 = weight(_text_:medien in 5556) [ClassicSimilarity], result of:
          0.032370243 = score(doc=5556,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.26000705 = fieldWeight in 5556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.020302713 = weight(_text_:und in 5556) [ClassicSimilarity], result of:
          0.020302713 = score(doc=5556,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 5556, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.020302713 = weight(_text_:und in 5556) [ClassicSimilarity], result of:
          0.020302713 = score(doc=5556,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 5556, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.051182073 = weight(_text_:technik in 5556) [ClassicSimilarity], result of:
          0.051182073 = score(doc=5556,freq=4.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3888021 = fieldWeight in 5556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.015848318 = weight(_text_:des in 5556) [ClassicSimilarity], result of:
          0.015848318 = score(doc=5556,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.21635216 = fieldWeight in 5556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
      0.2777778 = coord(5/18)
    
    Abstract
    Trotz des ungebrernsten Wachstums des Internet wird das Telefon auch weiterhin eines der wichtigsten Medien für die Kommunikation zwischen Unternehmen und ihren Kunden bleiben. Die Bedeutung der gesprochenen Sprache wird durch die rasante Verbreitung von Mobiltelefonen noch verstärkt. Fast alle großen Unternehmen betreiben oder beauftragen Call Centers, um ihren Kunden telefonisch zu Diensten zu stehen. Oft sind Call Centers mit sogenannten IVR-Systemen (Interactive Voice Response) ausgestattet, die dem Benutzer eine eingeschränkte Menüauswahl über die Telefontasten oder eine rudimentäre Spracheingabe bieten. Diese Art der Eingabe wird aber bei mehr als fünf Wahlmöglichkeiten als lästig empfunden. Hier bietet sich ein großes Potenzial für automatische Spracherkennung und Sprachdialogsysteme. In diesem Artikel werden die technischen Grundlagen sowie die derzeitigen Möglichkeiten und Grenzen der automatischen Spracherkennungstechnologie dargestellt. Wir berichten über Erfahrungen mit einem System für telefonische Posttarifauskünfte, das am Forschungszentrum Telekommunikation Wien (FTW) in Zusammenarbeit mit Philips Speech Processing und der Österreichischen Post AG realisiert und erprobt wurde. Der Stand der Technik in Sprachausgabe und Sprechererkennung wird kurz dargestellt. Zum Abschluss wird ein Ausblick auf die Rolle von Sprachdialogen in zukünftigen mobilen Multirnedia-Anwendungen gegeben
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  7. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.04
    0.036605835 = product of:
      0.16472626 = sum of:
        0.06726922 = weight(_text_:allgemeines in 190) [ClassicSimilarity], result of:
          0.06726922 = score(doc=190,freq=4.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.44573617 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.04424874 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.04424874 = score(doc=190,freq=76.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.04424874 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.04424874 = score(doc=190,freq=76.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.008959541 = product of:
          0.017919082 = sum of:
            0.017919082 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.017919082 = score(doc=190,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  8. Bernhard, U.; Mistrik, I.: Rechnergestützte Übersetzung : Einführung und Technik (1998) 0.03
    0.03177033 = product of:
      0.14296648 = sum of:
        0.024363257 = weight(_text_:und in 5343) [ClassicSimilarity], result of:
          0.024363257 = score(doc=5343,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 5343, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5343)
        0.024363257 = weight(_text_:und in 5343) [ClassicSimilarity], result of:
          0.024363257 = score(doc=5343,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 5343, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5343)
        0.07522198 = weight(_text_:technik in 5343) [ClassicSimilarity], result of:
          0.07522198 = score(doc=5343,freq=6.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.5714201 = fieldWeight in 5343, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=5343)
        0.01901798 = weight(_text_:des in 5343) [ClassicSimilarity], result of:
          0.01901798 = score(doc=5343,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.25962257 = fieldWeight in 5343, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5343)
      0.22222222 = coord(4/18)
    
    Abstract
    Softwaresysteme zur maschinellen und maschinengestützten Übersetzung natürlicher Sprachen erfuhren in den letzten 2 bis 3 Jahren eine erstaunliche Entwicklung. Fortschritte in der Datenbanktechnik, neue leistungsfähigere computerlinguistische Ansätze und eine grundlegende Verbesserung des Preis / Leistungsverhältnisses bei Ein- und Mehrplatz-Hard- und Software machen heute bisher noch nie dagewesene Lösungen möglich, die zu einem Bruchteil der früheren Kosten angeschafft und betrieben werden können. Als Folge diese Entwicklung drängte eine Vielzahl neuer Produkte auf den Übersetzungssoftware-Markt, was - obwohl generell zu begrüßen - für potentielle neue Benutzer die Auswahl des für ihre Anwendungsumgebung geeigneten Produkts erschwert. Vor diesem Hintergrund stellt der vorliegende Artikel die Technik der maschinellen und maschinengestützten Übersetzung dar. Es werden Richtlinien vorgestellt, die potentiellen neuen Benutzern der MÜ-Technik die Auswahl eines geeigneten Werkzeugs erleichtern sollen. Im Anhang werden einige Übersetzungssoftware-Produkte kurz vorgestellt
    Source
    nfd Information - Wissenschaft und Praxis. 49(1998) H.1, S.5-10
  9. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.03
    0.031737022 = product of:
      0.1428166 = sum of:
        0.017227424 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.017227424 = score(doc=5429,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.017227424 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.017227424 = score(doc=5429,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.08685885 = weight(_text_:technik in 5429) [ClassicSimilarity], result of:
          0.08685885 = score(doc=5429,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.659819 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.021502897 = product of:
          0.043005794 = sum of:
            0.043005794 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.043005794 = score(doc=5429,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Source
    c't. 2000, H.22, S.230-231
  10. Linguistik und neue Medien (1998) 0.03
    0.028912751 = product of:
      0.1734765 = sum of:
        0.14476414 = weight(_text_:medien in 5770) [ClassicSimilarity], result of:
          0.14476414 = score(doc=5770,freq=10.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            1.162787 = fieldWeight in 5770, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.014356187 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.014356187 = score(doc=5770,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.014356187 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.014356187 = score(doc=5770,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
      0.16666667 = coord(3/18)
    
    RSWK
    Lexikographie / Neue Medien / Kongress / Leipzig <1997> (2134)
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
    Subject
    Lexikographie / Neue Medien / Kongress / Leipzig <1997> (2134)
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
  11. Räwel, J.: Automatisierte Kommunikation (2023) 0.03
    0.025813688 = product of:
      0.092929274 = sum of:
        0.032370243 = weight(_text_:medien in 909) [ClassicSimilarity], result of:
          0.032370243 = score(doc=909,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.26000705 = fieldWeight in 909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.014356187 = weight(_text_:und in 909) [ClassicSimilarity], result of:
          0.014356187 = score(doc=909,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24487628 = fieldWeight in 909, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.0206402 = product of:
          0.0412804 = sum of:
            0.0412804 = weight(_text_:kommunikationswissenschaften in 909) [ClassicSimilarity], result of:
              0.0412804 = score(doc=909,freq=2.0), product of:
                0.14059173 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.026451524 = queryNorm
                0.29361898 = fieldWeight in 909, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=909)
          0.5 = coord(1/2)
        0.014356187 = weight(_text_:und in 909) [ClassicSimilarity], result of:
          0.014356187 = score(doc=909,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24487628 = fieldWeight in 909, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.011206453 = weight(_text_:des in 909) [ClassicSimilarity], result of:
          0.011206453 = score(doc=909,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.15298408 = fieldWeight in 909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
      0.2777778 = coord(5/18)
    
    Abstract
    Eine kommunikationstheoretische Einordnung des Chatbots ChatGPT
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
    Field
    Kommunikationswissenschaften
    Series
    Telepolis / Kultur und Medien
  12. Endres-Niggemeyer, B.: Sprachverarbeitung im Informationsbereich (1989) 0.02
    0.024920765 = product of:
      0.14952458 = sum of:
        0.10358478 = weight(_text_:medien in 4860) [ClassicSimilarity], result of:
          0.10358478 = score(doc=4860,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.8320226 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
        0.0229699 = weight(_text_:und in 4860) [ClassicSimilarity], result of:
          0.0229699 = score(doc=4860,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
        0.0229699 = weight(_text_:und in 4860) [ClassicSimilarity], result of:
          0.0229699 = score(doc=4860,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
      0.16666667 = coord(3/18)
    
    Source
    Linguistische Datenverarbeitung und Neue Medien. Hrsg.: Winfried Lenders
  13. Linguistische Datenverarbeitung und neue Medien (1989) 0.02
    0.024920765 = product of:
      0.14952458 = sum of:
        0.10358478 = weight(_text_:medien in 8084) [ClassicSimilarity], result of:
          0.10358478 = score(doc=8084,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.8320226 = fieldWeight in 8084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.125 = fieldNorm(doc=8084)
        0.0229699 = weight(_text_:und in 8084) [ClassicSimilarity], result of:
          0.0229699 = score(doc=8084,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 8084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=8084)
        0.0229699 = weight(_text_:und in 8084) [ClassicSimilarity], result of:
          0.0229699 = score(doc=8084,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 8084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=8084)
      0.16666667 = coord(3/18)
    
  14. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.02
    0.02328439 = product of:
      0.10477976 = sum of:
        0.017227424 = weight(_text_:und in 2849) [ClassicSimilarity], result of:
          0.017227424 = score(doc=2849,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 2849, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
        0.017227424 = weight(_text_:und in 2849) [ClassicSimilarity], result of:
          0.017227424 = score(doc=2849,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 2849, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
        0.043429427 = weight(_text_:technik in 2849) [ClassicSimilarity], result of:
          0.043429427 = score(doc=2849,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 2849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
        0.026895486 = weight(_text_:des in 2849) [ClassicSimilarity], result of:
          0.026895486 = score(doc=2849,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.36716178 = fieldWeight in 2849, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
      0.22222222 = coord(4/18)
    
    Abstract
    Natural Language Classifier helfen Unternehmen zunehmend dabei die Flut von Textdaten zu überwinden. Aber diese Classifier, einmal trainiert, verlieren mit der Zeit ihre Nützlichkeit. Sie bleiben statisch, aber die zugrundeliegende Domäne der Textdaten verändert sich: Ihre Genauigkeit nimmt aufgrund eines Phänomens ab, das als Konzeptdrift bekannt ist. Die Frage ist ob Konzeptdrift durch die Ausgabe eines Classifiers zuverlässig erkannt werden kann, und falls ja: ist es möglich dem durch nachtrainieren des Classifiers entgegenzuwirken. Es wird eine System-Implementierung mittels Proof-of-Concept vorgestellt, bei der das Konfidenzmass des Classifiers zur Erkennung von Konzeptdrift verwendet wird. Der Classifier wird dann iterativ neu trainiert, indem er Stichproben mit niedrigem Konfidenzmass auswählt, sie korrigiert und im Trainingsset der nächsten Iteration verwendet. Die Leistung des Classifiers wird über die Zeit gemessen, und die Leistung des Systems beobachtet. Basierend darauf werden schließlich Empfehlungen gegeben, die sich bei der Implementierung solcher Systeme als nützlich erweisen können.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
  15. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.022764202 = product of:
      0.1365852 = sum of:
        0.032101408 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.032101408 = score(doc=3412,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.032101408 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.032101408 = score(doc=3412,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.07238238 = weight(_text_:technik in 3412) [ClassicSimilarity], result of:
          0.07238238 = score(doc=3412,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.5498492 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.16666667 = coord(3/18)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
    Source
    ABI-Technik. 9(1989), S.309-313
  16. Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023) 0.02
    0.02149055 = product of:
      0.1289433 = sum of:
        0.06474049 = weight(_text_:medien in 908) [ClassicSimilarity], result of:
          0.06474049 = score(doc=908,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.5200141 = fieldWeight in 908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
        0.032101408 = weight(_text_:und in 908) [ClassicSimilarity], result of:
          0.032101408 = score(doc=908,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.54756 = fieldWeight in 908, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
        0.032101408 = weight(_text_:und in 908) [ClassicSimilarity], result of:
          0.032101408 = score(doc=908,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.54756 = fieldWeight in 908, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
      0.16666667 = coord(3/18)
    
    Abstract
    Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
    Series
    Telepolis / Kultur und Medien
    Source
    https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
  17. Wagner, J.: Mensch - Computer - Interaktion : Sprachwissenschaftliche Aspekte (2002) 0.02
    0.020296004 = product of:
      0.09133202 = sum of:
        0.017227424 = weight(_text_:und in 1102) [ClassicSimilarity], result of:
          0.017227424 = score(doc=1102,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 1102, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
        0.017227424 = weight(_text_:und in 1102) [ClassicSimilarity], result of:
          0.017227424 = score(doc=1102,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 1102, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
        0.043429427 = weight(_text_:technik in 1102) [ClassicSimilarity], result of:
          0.043429427 = score(doc=1102,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 1102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
        0.013447743 = weight(_text_:des in 1102) [ClassicSimilarity], result of:
          0.013447743 = score(doc=1102,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 1102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
      0.22222222 = coord(4/18)
    
    Abstract
    Die Arbeit zeigt, dass die vielerorts beklagten Probleme von Benutzern mit Computern in hohem Maße durch die (zum Teil mangelhafte) sprachliche Gestaltung der jeweiligen Interfaces bedingt sind. Es wird die These vertreten, dass verbale Interface-Elemente trotz des zunächst augenfälligen hohen grafischen Aufwands von Benutzeroberflächen für den Aufbau von Sinn und interaktiver Ordnung bei der Bedienung eines hinreichend komplexen Systems als primär gelten können. Als Basis der Analyse dienen vor allem Aufnahmen der Dialoge von jeweils zwei Benutzern bei der gemeinsamen Arbeit am Computer in Verbindung mit entsprechenden Aufzeichnungen der Bildschirminhalte. Die Arbeit versteht sich als ein Plädoyer für mehr linguistische Kompetenz in der Softwaregestaltung wie auch für stärkere Investitionen der Industrie in die sprachliche Gestaltung von Mensch-Maschine-Schnittstellen.
    Content
    Aus dem Inhalt. Sprachliche Aspekte der MenschComputer-Interaktion - Interface-Sprache und Sprach-Design - Interaktion und Technik- Misslingende Kommunikation an der Mensch-Computer-Schnittstelle.
    Series
    Textproduktion und Medium; Bd.6
  18. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.02
    0.020244645 = product of:
      0.0911009 = sum of:
        0.014356187 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.014356187 = score(doc=566,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.014356187 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.014356187 = score(doc=566,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.051182073 = weight(_text_:technik in 566) [ClassicSimilarity], result of:
          0.051182073 = score(doc=566,freq=4.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3888021 = fieldWeight in 566, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.011206453 = weight(_text_:des in 566) [ClassicSimilarity], result of:
          0.011206453 = score(doc=566,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.15298408 = fieldWeight in 566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
      0.22222222 = coord(4/18)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  19. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.02
    0.020235369 = product of:
      0.07284732 = sum of:
        0.015073995 = weight(_text_:und in 4044) [ClassicSimilarity], result of:
          0.015073995 = score(doc=4044,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.25712007 = fieldWeight in 4044, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.015073995 = weight(_text_:und in 4044) [ClassicSimilarity], result of:
          0.015073995 = score(doc=4044,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.25712007 = fieldWeight in 4044, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.025333833 = weight(_text_:technik in 4044) [ClassicSimilarity], result of:
          0.025333833 = score(doc=4044,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.19244722 = fieldWeight in 4044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.011093821 = weight(_text_:des in 4044) [ClassicSimilarity], result of:
          0.011093821 = score(doc=4044,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.1514465 = fieldWeight in 4044, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.0062716785 = product of:
          0.012543357 = sum of:
            0.012543357 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.012543357 = score(doc=4044,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  20. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.02
    0.019799458 = product of:
      0.08909756 = sum of:
        0.05179239 = weight(_text_:medien in 835) [ClassicSimilarity], result of:
          0.05179239 = score(doc=835,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.4160113 = fieldWeight in 835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=835)
        0.01148495 = weight(_text_:und in 835) [ClassicSimilarity], result of:
          0.01148495 = score(doc=835,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.19590102 = fieldWeight in 835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=835)
        0.01148495 = weight(_text_:und in 835) [ClassicSimilarity], result of:
          0.01148495 = score(doc=835,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.19590102 = fieldWeight in 835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=835)
        0.014335265 = product of:
          0.02867053 = sum of:
            0.02867053 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.02867053 = score(doc=835,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Das Forschungsunternehmen OpenAI hat ein neues Sprachmodell vorgestellt: ChatGPT. Es hat einen regelrechten Hype ausgelöst: Viele Nutzer haben Beispiele in den sozialen Medien gepostet, die die vielfältigen Fähigkeiten demonstrieren. Das darf aber nicht darüber hinwegtäuschen, dass auch ChatGPT einige gefährliche Schwächen hat, die für Sprachmodelle typisch sind.
    Date
    29.12.2022 18:22:55

Years

Languages

  • d 202
  • e 60
  • ru 12
  • m 4
  • f 3
  • More… Less…

Types

  • a 205
  • m 42
  • el 35
  • s 17
  • x 11
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications