Search (435 results, page 1 of 22)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.20
    0.19881627 = product of:
      0.5680465 = sum of:
        0.041378558 = product of:
          0.124135666 = sum of:
            0.124135666 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.124135666 = score(doc=562,freq=2.0), product of:
                0.22087488 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026052676 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.124135666 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.124135666 = score(doc=562,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.124135666 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.124135666 = score(doc=562,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.124135666 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.124135666 = score(doc=562,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.023065707 = weight(_text_:computer in 562) [ClassicSimilarity], result of:
          0.023065707 = score(doc=562,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.24226204 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.124135666 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.124135666 = score(doc=562,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0070595555 = product of:
          0.021178667 = sum of:
            0.021178667 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.021178667 = score(doc=562,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.35 = coord(7/20)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Imprint
    Washington, DC : IEEE Computer Society
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.16
    0.16360907 = product of:
      0.54536355 = sum of:
        0.041378558 = product of:
          0.124135666 = sum of:
            0.124135666 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.124135666 = score(doc=862,freq=2.0), product of:
                0.22087488 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026052676 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.007442331 = product of:
          0.022326993 = sum of:
            0.022326993 = weight(_text_:p in 862) [ClassicSimilarity], result of:
              0.022326993 = score(doc=862,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23835106 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3 = coord(6/20)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
    Type
    p
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.16
    0.1580004 = product of:
      0.52666795 = sum of:
        0.124135666 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.124135666 = score(doc=563,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.124135666 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.124135666 = score(doc=563,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.124135666 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.124135666 = score(doc=563,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.023065707 = weight(_text_:computer in 563) [ClassicSimilarity], result of:
          0.023065707 = score(doc=563,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.24226204 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.124135666 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.124135666 = score(doc=563,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.0070595555 = product of:
          0.021178667 = sum of:
            0.021178667 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.021178667 = score(doc=563,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.05
    0.047157645 = product of:
      0.13473614 = sum of:
        0.021571757 = weight(_text_:und in 5759) [ClassicSimilarity], result of:
          0.021571757 = score(doc=5759,freq=38.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3735868 = fieldWeight in 5759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.01338223 = weight(_text_:des in 5759) [ClassicSimilarity], result of:
          0.01338223 = score(doc=5759,freq=6.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18548335 = fieldWeight in 5759, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.031561717 = weight(_text_:medien in 5759) [ClassicSimilarity], result of:
          0.031561717 = score(doc=5759,freq=4.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.25739387 = fieldWeight in 5759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.019028237 = weight(_text_:computer in 5759) [ClassicSimilarity], result of:
          0.019028237 = score(doc=5759,freq=4.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.19985598 = fieldWeight in 5759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.021571757 = weight(_text_:und in 5759) [ClassicSimilarity], result of:
          0.021571757 = score(doc=5759,freq=38.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3735868 = fieldWeight in 5759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.023502357 = weight(_text_:deutschland in 5759) [ClassicSimilarity], result of:
          0.023502357 = score(doc=5759,freq=2.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.18677385 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.004118074 = product of:
          0.012354222 = sum of:
            0.012354222 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.012354222 = score(doc=5759,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.33333334 = coord(1/3)
      0.35 = coord(7/20)
    
    Abstract
    Computer müssen lernen, die Sprache des Menschen zu verstehen. Forscher an der Uni Duisburg haben eine Methode entwickelt, mit der ein Rechner Informationen aus Radiobeiträgen herausfiltern kann.
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  5. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.05
    0.046621032 = product of:
      0.18648413 = sum of:
        0.043581534 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.043581534 = score(doc=190,freq=76.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.027183196 = weight(_text_:computer in 190) [ClassicSimilarity], result of:
          0.027183196 = score(doc=190,freq=4.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.28550854 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.066254914 = weight(_text_:allgemeines in 190) [ClassicSimilarity], result of:
          0.066254914 = score(doc=190,freq=4.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.44573617 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.043581534 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.043581534 = score(doc=190,freq=76.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.0058829635 = product of:
          0.01764889 = sum of:
            0.01764889 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.01764889 = score(doc=190,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RSWK
    Computer / Anwendung / Computerunterstützte Lexikographie / Aufsatzsammlung
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
    Subject
    Computer / Anwendung / Computerunterstützte Lexikographie / Aufsatzsammlung
  6. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.05
    0.045717552 = product of:
      0.18287021 = sum of:
        0.018705087 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.018705087 = score(doc=2731,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.106423266 = weight(_text_:methodik in 2731) [ClassicSimilarity], result of:
          0.106423266 = score(doc=2731,freq=4.0), product of:
            0.18838635 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.026052676 = queryNorm
            0.56492025 = fieldWeight in 2731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.01911747 = weight(_text_:des in 2731) [ClassicSimilarity], result of:
          0.01911747 = score(doc=2731,freq=6.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.2649762 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.019919295 = weight(_text_:im in 2731) [ClassicSimilarity], result of:
          0.019919295 = score(doc=2731,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.27047595 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.018705087 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.018705087 = score(doc=2731,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.25 = coord(5/20)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  7. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.04
    0.043068636 = product of:
      0.123053245 = sum of:
        0.023147713 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.023147713 = score(doc=91,freq=134.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.018203473 = weight(_text_:des in 91) [ClassicSimilarity], result of:
          0.018203473 = score(doc=91,freq=34.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.2523078 = fieldWeight in 91, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.01275286 = weight(_text_:medien in 91) [ClassicSimilarity], result of:
          0.01275286 = score(doc=91,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.104002826 = fieldWeight in 91, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.015935436 = weight(_text_:im in 91) [ClassicSimilarity], result of:
          0.015935436 = score(doc=91,freq=24.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.21638076 = fieldWeight in 91, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.010873279 = weight(_text_:computer in 91) [ClassicSimilarity], result of:
          0.010873279 = score(doc=91,freq=4.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.114203416 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.023147713 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.023147713 = score(doc=91,freq=134.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.018992772 = weight(_text_:deutschland in 91) [ClassicSimilarity], result of:
          0.018992772 = score(doc=91,freq=4.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.15093607 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
      0.35 = coord(7/20)
    
    Abstract
    Der vorliegende Band enthält Beiträge namhafter Autoren aus den Bereichen Informationswissenschaft, Computerlinguistik, Kommunikationswissenschaft, Bibliothekswesen und verwandten Fächern. Es werden sowohl aktuelle theoretische Themen behandelt, etwa zu Medientheorie und Internet, zum Verhältnis von Information und kulturellem Gedächtnis oder über Information im Museum, als auch praktische Anwendungen und Vorschläge gegeben, wie z.B. zur Automatischen Indexierung und zur Wissensrepräsentation.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt: Information und Sprache und mehr - eine Einleitung - Information und Kommunikation Wolf Rauch: Auch Information ist eine Tochter der Zeit Winfried Lenders: Information und kulturelles Gedächtnis Rainer Hammwöhner: Anmerkungen zur Grundlegung der Informationsethik Hans W. Giessen: Ehrwürdig stille Informationen Gernot Wersig: Vereinheitlichte Medientheorie und ihre Sicht auf das Internet Johann Haller, Anja Rütten: Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern? Rainer Kuhlen: In Richtung Summarizing für Diskurse in K3 Werner Schweibenz: Sprache, Information und Bedeutung im Museum. Narrative Vermittlung durch Storytelling - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung Manfred Thiel: Bedingt wahrscheinliche Syntaxbäume Jürgen Krause: Shell Model, Semantic Web and Web Information Retrieval Elisabeth Niggemann: Wer suchet, der findet? Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek Christa Womser-Hacker: Zur Rolle von Eigennamen im Cross-Language Information Retrieval Klaus-Dirk Schmitz: Wörterbuch, Thesaurus, Terminologie, Ontologie. Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei?
    Jiri Panyr: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? Heinz-Dieter Maas: Indexieren mit AUTINDEX Wilhelm Gaus, Rainer Kaluscha: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten Klaus Lepsky: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte - Analysen und Entwicklungen Ilse Harms: Die computervermittelte Kommunikation als ein Instrument des Wissensmanagements in Organisationen August- Wilhelm Scheer, Dirk Werth: Geschäftsregel-basiertes Geschäftsprozessmanagement Thomas Seeger: Akkreditierung und Evaluierung von Hochschullehre und -forschung in Großbritannien. Hinweise für die Situation in Deutschland Bernd Hagenau: Gehabte Sorgen hab' ich gern? Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 - Persönliches Jorgo Chatzimarkakis: Sprache und Information in Europa Alfred Gulden: 7 Briefe und eine Anmerkung Günter Scholdt: Der Weg nach Europa im Spiegel von Mundartgedichten Alfred Guldens Wolfgang Müller: Prof. Dr. Harald H. Zimmermann - Seit 45 Jahren der Universität des Saarlandes verbunden Heinz-Dirk Luckhardt: Computerlinguistik und Informationswissenschaft: Facetten des wissenschaftlichen Wirkens von Harald H. Zimmermann Schriftenverzeichnis Harald H. Zimmermanns 1967-2005 - Projekte in Verantwortung von Harald H. Zimmermann - Adressen der Beiträgerinnen und Beiträger
    Footnote
    Rez. in Mitt. VÖB 59(2006) Nr.3, S.75-78 (O. Oberhauser): "Beim vorliegenden Buch handelt es sich um die Festschrift zum 65. Geburtstag des mit Ende des Sommersemesters 2006 in den Ruhestand getretenen Universitätsprofessors für Informationswissenschaft, Harald H. Zimmermann, jenes 1941 in Völklingen geborenen Computerlinguisten, der die Informationswissenschaft als akademische Disziplin in Deutschland mitbegründet und seit 1980 an der Universität des Saarlandes vertreten hat. Die insgesamt 26 Beiträge des von Professor Zimmermanns Mitarbeitern betreuten, optisch gediegen anmutenden Saur-Bandes gliedern sich - so das Inhaltsverzeichnis - in vier Themenschwerpunkte: - Information und Kommunikation - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung - Analysen und Entwicklungen - Persönliches Die Aufsätze selbst variieren, wie bei Festschriften üblich bzw. unvermeidbar, hinsichtlich Länge, Stil, thematischem Detail und Anspruchsniveau. Neben wissenschaftlichen Beiträgen findet man hier auch Reminiszenzen und Literarisches. Die nachfolgende Auswahl zeigt, was mich selbst an diesem Buch interessiert hat:
    In Information und kulturelles Gedächtnis (S. 7-15) plädiert der Kommunikationswissenschaftler Winfried Lenders (Bonn) dafür, Information nicht mit dem zu identifizieren, was heute als (kulturelles) Gedächtnis bezeichnet wird. Information ist ein Prozess bzw. Vorgang und kein manifestes Substrat; sie setzt aber ein solches Substrat, nämlich das im (kulturellen) Gedächtnis abgespeicherte Wissen, voraus. Allerdings führt nicht jedes Informieren zu einer Vermehrung des kulturellen Gedächtnisses - das notwendige Auswahlkriterium liegt jedoch nicht in der grundsätzliche Möglichkeit zum Speichern von Inhalten. Es liegt auch nicht ausschliesslich in formalisierten Aussonderungsmechanismen wie Skartieren, Zitationsindizes und Relevanzrangreihen, sondern in der gesellschaftlichen Kommunikation schlechthin. Auch an die Verfügbarkeit des Schriftlichen ist das kulturelle Gedächtnis nicht gebunden, zumal ja auch in Kulturen der Oralität gesellschaftlich Wichtiges aufbewahrt wird. Rainer Hammwöhner (Regensburg) geht in Anmerkungen zur Grundlegung der Informationsethik (S. 17-27) zunächst auf die "Überversorgung" des Informationssektors mit Spezialethiken ein, wobei er neben der (als breiter angesehenen) Informationsethik konkurrierende Bereichsethiken wie Medienethik, Computerethik und Netzethik/Cyberethik thematisiert und Überlappungen, Abgrenzung, Hierarchisierung etc. diskutiert. Versuche einer diskursethischen wie einer normenethischen Begründung der Informationsethik sind nach Hammwöhner zum Scheitern verurteilt, sodass er einen pragmatistischen Standpunkt einnimmt, wonach Informationsethik ganz einfach "die Analyse und Systematisierung der im Zusammenhang der digitalen Kommunikation etablierten normativen Handlungsmuster" zu leisten habe. In diesem Konnex werden Fragen wie jene nach dem Guten, aber auch Aspekte wie die Bewahrung des kulturellen Erbes für spätere Generationen und der Erhalt der kulturellen Mannigfaltigkeit angesprochen. Der Beitrag des vor kurzem verstorbenen Gründungsvaters der deutschen Informationswissenschaft, Gernot Wersig (Berlin), ist mit Vereinheitlichte Medientheorie und ihre Sicht auf das Internet (S. 35-46) überschrieben. Der Autor gibt darin einen kurzen Überblick über bisherige medientheoretische Ansätze und versucht sodann - ausgehend von den Werken Niklas Luhmanns und Herbert Stachowiaks - eine "vereinheitlichte Medientheorie" zu entwickeln. Dabei werden die Faktoren Kommunikation, Medien, Medienplattformen und -typologien, Medienevolution und schließlich die digitale Revolution diskutiert. Das Internet, so folgert Wersig, sei eine Medienplattform mit dem Potential, eine ganze Epoche zu gestalten. In Anlehnung an den bekannten Begriff "Gutenberg-Galaxis" spricht er hier auch von einer "Internet-Galaxie". Obwohl dieser Artikel viele interessante Gedanken enthält, erschließt er sich dem Leser leider nur schwer, da vieles vorausgesetzt wird und auch der gewählte Soziologenjargon nicht jedermanns Sache ist.
    In Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (S. 139-151) gibt Jiri Panyr (München/Saarbrücken) eine gut lesbare und nützliche Übersicht über die im Titel des Beitrags genannten semantischen Repräsentationsformen, die im Zusammenhang mit dem Internet und insbesondere mit dem vorgeschlagenen Semantic Web immer wieder - und zwar häufig unpräzise oder gar unrichtig - Anwendung finden. Insbesondere die Ausführungen zum Modebegriff Ontologie zeigen, dass dieser nicht leichtfertig als Quasi-Synonym zu Thesaurus oder Klassifikation verwendet werden darf. Panyrs Beitrag ist übrigens thematisch verwandt mit jenem von K.-D. Schmitz (Köln), Wörterbuch, Thesaurus, Terminologie, Ontologie (S. 129-137). Abgesehen von dem einfallslosen Titel Wer suchet, der findet? (S. 107- 118) - zum Glück mit dem Untertitel Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek versehen - handelt es sich bei diesem Artikel von Elisabeth Niggemann (Frankfurt am Main) zwar um keinen wissenschaftlichen, doch sicherlich den praktischsten, lesbarsten und aus bibliothekarischer Sicht interessantesten des Buches. Niggemann gibt einen Überblick über die bisherige sachliche Erschliessung der bibliographischen Daten der inzwischen zur Deutschen Nationalbibliothek mutierten DDB, sowie einen Statusbericht nebst Ausblick über gegenwärtige bzw. geplante Verbesserungen der inhaltlichen Suche. Dazu zählen der breite Einsatz eines automatischen Indexierungsverfahrens (MILOS/IDX) ebenso wie Aktivitäten im klassifikatorischen Bereich (DDC), die Vernetzung nationaler Schlagwortsysteme (Projekt MACS) sowie die Beschäftigung mit Crosskonkordanzen (CARMEN) und Ansätzen zur Heterogenitätsbehandlung. Das hier von zentraler Stelle deklarierte "commitment" hinsichtlich der Verbesserung der sachlichen Erschließung des nationalen Online-Informationssystems erfüllt den eher nur Kleinmut und Gleichgültigkeit gewohnten phäakischen Beobachter mit Respekt und wehmutsvollem Neid.
    Mit automatischer Indexierung beschäftigen sich auch zwei weitere Beiträge. Indexieren mit AUTINDEX von H.-D. Mass (Saarbrücken) ist leider knapp und ohne didaktische Ambition verfasst, sodass man sich nicht wirklich vorstellen kann, wie dieses System funktioniert. Übersichtlicher stellt sich der Werkstattbericht Automatische Indexierung des Reallexikons zur deutschen Kunstgeschichte von K. Lepsky (Köln) dar, der zeigt, welche Probleme und Schritte bei der Digitalisierung, Indexierung und Web-Präsentation der Volltexte eines grossen fachlichen Nachschlagewerkes anfallen. Weitere interessante Beiträge befassen sich z.B. mit Summarizing-Leistungen im Rahmen eines e-Learning-Projektes (R. Kuhlen), mit dem Schalenmodell und dem Semantischen Web (J. Krause; aus nicht näher dargelegten Gründen in englischer Sprache) und mit der Akkreditierung/ Evaluierung von Hochschullehre und -forschung in Großbritannien (T. Seeger). In Summe liegt hier eine würdige Festschrift vor, über die sich der Gefeierte sicherlich gefreut haben wird. Für informationswissenschaftliche Spezialsammlungen und größere Bibliotheken ist der Band allemal eine Bereicherung. Ein Wermutstropfen aber doch: Obzwar mit Information und Sprache ein optisch ansprechend gestaltetes Buch produziert wurde, enthüllt eine nähere Betrachtung leider allzu viele Druckfehler, mangelhafte Worttrennungen, unkorrigierte grammatikalische Fehler, sowie auch Inkonsistenzen bei Kursivdruck und Satzzeichen. Lektoren und Korrektoren sind, so muss man wieder einmal schmerzlich zur Kenntnis nehmen, ein aussterbender Berufsstand."
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
  8. Krause, J.: Mensch-Maschine-Interaktion in natürlicher Sprache : Evaluierungsstudien zu praxisorientierten Frage-Antwort-Systemen und ihre Methodik (1982) 0.04
    0.040004663 = product of:
      0.26669773 = sum of:
        0.027995212 = weight(_text_:und in 8964) [ClassicSimilarity], result of:
          0.027995212 = score(doc=8964,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.4848303 = fieldWeight in 8964, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.2107073 = weight(_text_:methodik in 8964) [ClassicSimilarity], result of:
          0.2107073 = score(doc=8964,freq=2.0), product of:
            0.18838635 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.026052676 = queryNorm
            1.118485 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.027995212 = weight(_text_:und in 8964) [ClassicSimilarity], result of:
          0.027995212 = score(doc=8964,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.4848303 = fieldWeight in 8964, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
      0.15 = coord(3/20)
    
    Series
    Sprache und Information; 1
  9. Schmidt, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft (2000) 0.04
    0.037386283 = product of:
      0.14954513 = sum of:
        0.021209575 = weight(_text_:und in 5559) [ClassicSimilarity], result of:
          0.021209575 = score(doc=5559,freq=18.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3673144 = fieldWeight in 5559, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.075252615 = weight(_text_:methodik in 5559) [ClassicSimilarity], result of:
          0.075252615 = score(doc=5559,freq=2.0), product of:
            0.18838635 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.026052676 = queryNorm
            0.39945894 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.015609349 = weight(_text_:des in 5559) [ClassicSimilarity], result of:
          0.015609349 = score(doc=5559,freq=4.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.21635216 = fieldWeight in 5559, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.016264034 = weight(_text_:im in 5559) [ClassicSimilarity], result of:
          0.016264034 = score(doc=5559,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.22084267 = fieldWeight in 5559, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.021209575 = weight(_text_:und in 5559) [ClassicSimilarity], result of:
          0.021209575 = score(doc=5559,freq=18.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3673144 = fieldWeight in 5559, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
      0.25 = coord(5/20)
    
    Abstract
    Tonmaterial in Form von Audio- oder Videoaufnahmen spielt in Bereichen der Wissenschaft, die sich mit verbaler Interaktion beschäftigen, eine bedeutende Rolle. Solche Gebiete sind u,a. die Linguistik, Psychologie, Soziologie und Kriminalistik. Gegenstand der Untersuchung können dabei z.B. die Formen des sprachlichen Handelns und der Sprachvariation in Abhängigkeit von der Situation oder die Ausprägung und Entwicklung von Sprachunterschieden vor dem sozialen Hintergrund sein. Im Rahmen der Analyse eines Gesprächsverlaufs kann beispielsweise die Form der Rederechtsicherung von Interesse sein. In diesem Zusammenhang stellen sich Fragen wie z.B. "Wie bringen Gesprächsteilnehrner Gesprächsbeteiligte dazu, ihre Rede zu unterbrechen?" oder "Wie wehren Gesprächsteilnehmer Unterbrechungsversuche voll anderen Teilnehmern ab?". Denkbar ist hier u.a. nach dem Vorkommen von "ausreden lassen" zu suchen, wobei diese beiden Wörter nicht unbedingt nebeneinander auftreten müssen. Bei der Suche nach Stellen an denen ein Gesprächsteilnehmer Ansprüche oder Forderungen an einen Gesprächspartner stellt, können die flektierten Formen der Modalverben wie z.B. "müssen", "sollen" oder "dürfen" für die Anfrage wichtig sein, während Konnektiva wie "aber", "ja aber" oder "doch" auf oppositive Gesprächsabschnitte verweisen können. Näheres zur gesprächsanalytischen Methodik kann Deppermann (1999) und Brünner et al. (1999) entnommen werden. In dem Bereich der Linguistik, die den Gebrauch von gesprochener Sprache in offiziellen und privaten Situationen zum Gegenstand hat, sind u.a. auch Aussprachevarianten von großem Interesse. Von der Untersuchung der Sprachfärbungen erhofft man sich detaillierte Aussagen über die Sprechersituation und die regionale (König (1988)) und soziale Herkunft des Sprechers machen zu können. In der Kriminalistik wirken solche Ergebnisse unterstützend bei der Identifizierung von Personen
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  10. Endres-Niggemeyer, B.: Sprachverarbeitung im Informationsbereich (1989) 0.04
    0.036814254 = product of:
      0.18407127 = sum of:
        0.022623546 = weight(_text_:und in 4860) [ClassicSimilarity], result of:
          0.022623546 = score(doc=4860,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.39180204 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
        0.10202288 = weight(_text_:medien in 4860) [ClassicSimilarity], result of:
          0.10202288 = score(doc=4860,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.8320226 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
        0.036801312 = weight(_text_:im in 4860) [ClassicSimilarity], result of:
          0.036801312 = score(doc=4860,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.49970993 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
        0.022623546 = weight(_text_:und in 4860) [ClassicSimilarity], result of:
          0.022623546 = score(doc=4860,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.39180204 = fieldWeight in 4860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4860)
      0.2 = coord(4/20)
    
    Source
    Linguistische Datenverarbeitung und Neue Medien. Hrsg.: Winfried Lenders
  11. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.04
    0.036614407 = product of:
      0.14645763 = sum of:
        0.018705087 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.018705087 = score(doc=1714,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.015609349 = weight(_text_:des in 1714) [ClassicSimilarity], result of:
          0.015609349 = score(doc=1714,freq=4.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.21635216 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.027183196 = weight(_text_:computer in 1714) [ClassicSimilarity], result of:
          0.027183196 = score(doc=1714,freq=4.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.28550854 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.066254914 = weight(_text_:allgemeines in 1714) [ClassicSimilarity], result of:
          0.066254914 = score(doc=1714,freq=4.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.44573617 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.018705087 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.018705087 = score(doc=1714,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
      0.25 = coord(5/20)
    
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
  12. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.03
    0.03204469 = product of:
      0.12817876 = sum of:
        0.014884662 = product of:
          0.044653986 = sum of:
            0.044653986 = weight(_text_:p in 5429) [ClassicSimilarity], result of:
              0.044653986 = score(doc=5429,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.47670212 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.33333334 = coord(1/3)
        0.01696766 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.01696766 = score(doc=5429,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.06523967 = weight(_text_:computer in 5429) [ClassicSimilarity], result of:
          0.06523967 = score(doc=5429,freq=4.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.6852205 = fieldWeight in 5429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.01696766 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.01696766 = score(doc=5429,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.014119111 = product of:
          0.042357333 = sum of:
            0.042357333 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.042357333 = score(doc=5429,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Noch immer ist der menschliche Übersetzer dem Computer in sprachlicher Hinsicht überlegen. Zwar ist die Übersetzungssoftware besser geworden, aber die systembedingten Probleme bleiben
    Source
    c't. 2000, H.22, S.230-231
  13. Schank, R.C.: Computer, elementare Aktionen und linguistische Theorien (1977) 0.03
    0.030073568 = product of:
      0.15036784 = sum of:
        0.017365439 = product of:
          0.052096315 = sum of:
            0.052096315 = weight(_text_:p in 6142) [ClassicSimilarity], result of:
              0.052096315 = score(doc=6142,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.55615246 = fieldWeight in 6142, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6142)
          0.33333334 = coord(1/3)
        0.039591208 = weight(_text_:und in 6142) [ClassicSimilarity], result of:
          0.039591208 = score(doc=6142,freq=8.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.68565357 = fieldWeight in 6142, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6142)
        0.05381998 = weight(_text_:computer in 6142) [ClassicSimilarity], result of:
          0.05381998 = score(doc=6142,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.56527805 = fieldWeight in 6142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.109375 = fieldNorm(doc=6142)
        0.039591208 = weight(_text_:und in 6142) [ClassicSimilarity], result of:
          0.039591208 = score(doc=6142,freq=8.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.68565357 = fieldWeight in 6142, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6142)
      0.2 = coord(4/20)
    
    Series
    Grundlagen der Kommunikation und Kognition
    Source
    Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. und eingeleitet von P. Eisenberg
  14. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.03
    0.027719717 = product of:
      0.09239905 = sum of:
        0.019996578 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.019996578 = score(doc=734,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.34630734 = fieldWeight in 734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.011037476 = weight(_text_:des in 734) [ClassicSimilarity], result of:
          0.011037476 = score(doc=734,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.15298408 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.016264034 = weight(_text_:im in 734) [ClassicSimilarity], result of:
          0.016264034 = score(doc=734,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.22084267 = fieldWeight in 734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.019221423 = weight(_text_:computer in 734) [ClassicSimilarity], result of:
          0.019221423 = score(doc=734,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.20188503 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.019996578 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.019996578 = score(doc=734,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.34630734 = fieldWeight in 734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.0058829635 = product of:
          0.01764889 = sum of:
            0.01764889 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.01764889 = score(doc=734,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  15. Budin, G.: Zum Entwicklungsstand der Terminologiewissenschaft (2019) 0.03
    0.025854856 = product of:
      0.10341942 = sum of:
        0.008682719 = product of:
          0.026048157 = sum of:
            0.026048157 = weight(_text_:p in 5604) [ClassicSimilarity], result of:
              0.026048157 = score(doc=5604,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.27807623 = fieldWeight in 5604, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5604)
          0.33333334 = coord(1/3)
        0.026187122 = weight(_text_:und in 5604) [ClassicSimilarity], result of:
          0.026187122 = score(doc=5604,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.4535172 = fieldWeight in 5604, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
        0.015452466 = weight(_text_:des in 5604) [ClassicSimilarity], result of:
          0.015452466 = score(doc=5604,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.2141777 = fieldWeight in 5604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
        0.02690999 = weight(_text_:computer in 5604) [ClassicSimilarity], result of:
          0.02690999 = score(doc=5604,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.28263903 = fieldWeight in 5604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
        0.026187122 = weight(_text_:und in 5604) [ClassicSimilarity], result of:
          0.026187122 = score(doc=5604,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.4535172 = fieldWeight in 5604, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
      0.25 = coord(5/20)
    
    Abstract
    In diesem Aufsatz wird der Entwicklungsstand der Terminologiewissenschaft auf 3 Ebenen analysiert: (1) in Bezug auf die Forschungsfragen, die in Forschungsprojekten, universitären Qualifizierungsarbeiten und anderen Forschungskontexten gestellt und auf der Basis empirischer Analysen beantwortet werden, darauf aufbauend (2) in Bezug auf die Methoden, die dabei verwendet werden, die Theorien, die solchen Arbeiten zugrunde gelegt werden, und die Paradigmen, in denen sich die Theorien und Methoden verorten lassen, sowie (3) in Bezug auf die darüber liegende Ebene der Terminologiewissenschaft als Disziplin. Auf allen 3 Ebenen lässt sich feststellen, dass der interdisziplinäre und multiperspektivische Charakter der Terminologiewissenschaft in den letzten Jahrzehnten zugenommen hat und sich weiter verstärkt.
    Series
    Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
    Source
    Terminologie : Epochen - Schwerpunkte - Umsetzungen. Zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie. Hrsg.: P. Drewer, u. D. Pulitano
  16. Linguistik und neue Medien (1998) 0.03
    0.025629112 = product of:
      0.17086074 = sum of:
        0.014139717 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.014139717 = score(doc=5770,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.14258131 = weight(_text_:medien in 5770) [ClassicSimilarity], result of:
          0.14258131 = score(doc=5770,freq=10.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            1.162787 = fieldWeight in 5770, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.014139717 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.014139717 = score(doc=5770,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
      0.15 = coord(3/20)
    
    RSWK
    Lexikographie / Neue Medien / Kongress / Leipzig <1997> (2134)
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
    Subject
    Lexikographie / Neue Medien / Kongress / Leipzig <1997> (2134)
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
  17. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.02
    0.024906298 = product of:
      0.09962519 = sum of:
        0.020392591 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.020392591 = score(doc=548,freq=26.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.026489943 = weight(_text_:des in 548) [ClassicSimilarity], result of:
          0.026489943 = score(doc=548,freq=18.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.36716178 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.027600983 = weight(_text_:im in 548) [ClassicSimilarity], result of:
          0.027600983 = score(doc=548,freq=18.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.37478244 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.020392591 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.020392591 = score(doc=548,freq=26.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.004749092 = product of:
          0.014247275 = sum of:
            0.014247275 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.014247275 = score(doc=548,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
    Series
    Saarbrücker Beiträge zur Sprach- und Translationswissenschaft; Bd.8
  18. Terminologie : Epochen - Schwerpunkte - Umsetzungen : zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie (2019) 0.02
    0.024778904 = product of:
      0.08259635 = sum of:
        0.006201943 = product of:
          0.018605828 = sum of:
            0.018605828 = weight(_text_:p in 5602) [ClassicSimilarity], result of:
              0.018605828 = score(doc=5602,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.19862589 = fieldWeight in 5602, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5602)
          0.33333334 = coord(1/3)
        0.017317547 = weight(_text_:und in 5602) [ClassicSimilarity], result of:
          0.017317547 = score(doc=5602,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29991096 = fieldWeight in 5602, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
        0.011037476 = weight(_text_:des in 5602) [ClassicSimilarity], result of:
          0.011037476 = score(doc=5602,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.15298408 = fieldWeight in 5602, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
        0.01150041 = weight(_text_:im in 5602) [ClassicSimilarity], result of:
          0.01150041 = score(doc=5602,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.15615936 = fieldWeight in 5602, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
        0.019221423 = weight(_text_:computer in 5602) [ClassicSimilarity], result of:
          0.019221423 = score(doc=5602,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.20188503 = fieldWeight in 5602, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
        0.017317547 = weight(_text_:und in 5602) [ClassicSimilarity], result of:
          0.017317547 = score(doc=5602,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29991096 = fieldWeight in 5602, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
      0.3 = coord(6/20)
    
    Abstract
    Alle, die sich mit fachsprachlichen Texten beschäftigen, beschäftigen sich automatisch auch mit Terminologie: Beim Lesen von Fachtexten nehmen sie die darin enthaltene Terminologie auf, beim Verfassen von Fachtexten verwenden oder produzieren sie Terminologie, beim Fachübersetzen übertragen sie Terminologie in andere Sprachen. Im Laufe der Zeit haben sich Methoden und Verfahren entwickelt, wie man professionell und effizient mit Terminologie arbeitet. Die Auseinandersetzung mit den Grundsätzen der Terminologiearbeit hat sich zu einer wissenschaftlichen Disziplin entwickelt. Der Rat für Deutschsprachige Terminologie (RaDT) wurde 1994 als Initiative der UNESCO-Kommissionen Deutschlands, Österreichs und der Schweiz gegründet, um terminologische Aktivitäten zu fördern. Zu seinem 25-jährigen Bestehen erscheint nun dieser Sammelband, der einen Überblick über das vielfältige Schaffen und das gesamte Themenspektrum der RaDT-Mitglieder bietet. Um die verschiedenen Perspektiven innerhalb der RaDT-Gemeinschaft angemessen wiederzugeben, umfasst der Band vier Themenbereiche: 1. Vielfalt an Epochen 2. Vielfalt an Schwerpunkten 3. Vielfalt an Umsetzungen (in öffentlichen Institutionen) 4. Vielfalt an Umsetzungen (in der Privatwirtschaft) Dieser Sammelband richtet sich an alle, die sich mit Terminologie, Terminologiewissenschaft oder Terminologiearbeit befassen, insbesondere in Unternehmensbereichen wie Sprachmanagement, Terminologiemanagement, Corporate Language, Wissensmanagement, sowie an Studierende und Wissenschaftler in den entsprechenden Disziplinen.
    Editor
    Drewer, P. u. D. Pulitano
    Series
    Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
  19. Erbach, G.: Sprachdialogsysteme für Telefondienste : Stand der Technik und zukünftige Entwicklungen (2000) 0.02
    0.024746265 = product of:
      0.09898506 = sum of:
        0.019996578 = weight(_text_:und in 5556) [ClassicSimilarity], result of:
          0.019996578 = score(doc=5556,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.34630734 = fieldWeight in 5556, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.015609349 = weight(_text_:des in 5556) [ClassicSimilarity], result of:
          0.015609349 = score(doc=5556,freq=4.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.21635216 = fieldWeight in 5556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.03188215 = weight(_text_:medien in 5556) [ClassicSimilarity], result of:
          0.03188215 = score(doc=5556,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.26000705 = fieldWeight in 5556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.01150041 = weight(_text_:im in 5556) [ClassicSimilarity], result of:
          0.01150041 = score(doc=5556,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.15615936 = fieldWeight in 5556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.019996578 = weight(_text_:und in 5556) [ClassicSimilarity], result of:
          0.019996578 = score(doc=5556,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.34630734 = fieldWeight in 5556, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
      0.25 = coord(5/20)
    
    Abstract
    Trotz des ungebrernsten Wachstums des Internet wird das Telefon auch weiterhin eines der wichtigsten Medien für die Kommunikation zwischen Unternehmen und ihren Kunden bleiben. Die Bedeutung der gesprochenen Sprache wird durch die rasante Verbreitung von Mobiltelefonen noch verstärkt. Fast alle großen Unternehmen betreiben oder beauftragen Call Centers, um ihren Kunden telefonisch zu Diensten zu stehen. Oft sind Call Centers mit sogenannten IVR-Systemen (Interactive Voice Response) ausgestattet, die dem Benutzer eine eingeschränkte Menüauswahl über die Telefontasten oder eine rudimentäre Spracheingabe bieten. Diese Art der Eingabe wird aber bei mehr als fünf Wahlmöglichkeiten als lästig empfunden. Hier bietet sich ein großes Potenzial für automatische Spracherkennung und Sprachdialogsysteme. In diesem Artikel werden die technischen Grundlagen sowie die derzeitigen Möglichkeiten und Grenzen der automatischen Spracherkennungstechnologie dargestellt. Wir berichten über Erfahrungen mit einem System für telefonische Posttarifauskünfte, das am Forschungszentrum Telekommunikation Wien (FTW) in Zusammenarbeit mit Philips Speech Processing und der Österreichischen Post AG realisiert und erprobt wurde. Der Stand der Technik in Sprachausgabe und Sprechererkennung wird kurz dargestellt. Zum Abschluss wird ein Ausblick auf die Rolle von Sprachdialogen in zukünftigen mobilen Multirnedia-Anwendungen gegeben
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  20. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.02
    0.024595883 = product of:
      0.08198627 = sum of:
        0.014846702 = weight(_text_:und in 4044) [ClassicSimilarity], result of:
          0.014846702 = score(doc=4044,freq=18.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.25712007 = fieldWeight in 4044, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.010926544 = weight(_text_:des in 4044) [ClassicSimilarity], result of:
          0.010926544 = score(doc=4044,freq=4.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.1514465 = fieldWeight in 4044, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.013943506 = weight(_text_:im in 4044) [ClassicSimilarity], result of:
          0.013943506 = score(doc=4044,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.18933317 = fieldWeight in 4044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.023304736 = weight(_text_:computer in 4044) [ClassicSimilarity], result of:
          0.023304736 = score(doc=4044,freq=6.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.24477258 = fieldWeight in 4044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.014846702 = weight(_text_:und in 4044) [ClassicSimilarity], result of:
          0.014846702 = score(doc=4044,freq=18.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.25712007 = fieldWeight in 4044, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.004118074 = product of:
          0.012354222 = sum of:
            0.012354222 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.012354222 = score(doc=4044,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22

Years

Languages

  • d 212
  • e 201
  • ru 12
  • m 5
  • f 4
  • slv 1
  • More… Less…

Types

  • a 315
  • m 70
  • el 55
  • s 24
  • x 13
  • p 7
  • d 2
  • pat 2
  • b 1
  • More… Less…

Subjects

Classifications