Search (243 results, page 1 of 13)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.16
    0.1616879 = product of:
      0.40421972 = sum of:
        0.055709004 = product of:
          0.16712701 = sum of:
            0.16712701 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16712701 = score(doc=562,freq=2.0), product of:
                0.29736948 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03507538 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16712701 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16712701 = score(doc=562,freq=2.0), product of:
            0.29736948 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03507538 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16712701 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16712701 = score(doc=562,freq=2.0), product of:
            0.29736948 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03507538 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.014256689 = product of:
          0.028513378 = sum of:
            0.028513378 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.028513378 = score(doc=562,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.4 = coord(4/10)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.16
    0.16093498 = product of:
      0.5364499 = sum of:
        0.21457997 = weight(_text_:psychologie in 2140) [ClassicSimilarity], result of:
          0.21457997 = score(doc=2140,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            1.0399343 = fieldWeight in 2140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.125 = fieldNorm(doc=2140)
        0.21457997 = weight(_text_:psychologie in 2140) [ClassicSimilarity], result of:
          0.21457997 = score(doc=2140,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            1.0399343 = fieldWeight in 2140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.125 = fieldNorm(doc=2140)
        0.107289985 = product of:
          0.21457997 = sum of:
            0.21457997 = weight(_text_:psychologie in 2140) [ClassicSimilarity], result of:
              0.21457997 = score(doc=2140,freq=2.0), product of:
                0.20633994 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03507538 = queryNorm
                1.0399343 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
    Source
    Zeitschrift für Psychologie. 201(1993), S.99-108
  3. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.12
    0.11698891 = product of:
      0.38996303 = sum of:
        0.055709004 = product of:
          0.16712701 = sum of:
            0.16712701 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.16712701 = score(doc=862,freq=2.0), product of:
                0.29736948 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03507538 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.16712701 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16712701 = score(doc=862,freq=2.0), product of:
            0.29736948 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03507538 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.16712701 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16712701 = score(doc=862,freq=2.0), product of:
            0.29736948 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03507538 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3 = coord(3/10)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  4. Strube, M.: Kreativ durch Analogien (2011) 0.11
    0.10714098 = product of:
      0.26785246 = sum of:
        0.09387874 = weight(_text_:psychologie in 4805) [ClassicSimilarity], result of:
          0.09387874 = score(doc=4805,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.45497125 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.03315559 = weight(_text_:der in 4805) [ClassicSimilarity], result of:
          0.03315559 = score(doc=4805,freq=12.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.4231716 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.09387874 = weight(_text_:psychologie in 4805) [ClassicSimilarity], result of:
          0.09387874 = score(doc=4805,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.45497125 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.04693937 = product of:
          0.09387874 = sum of:
            0.09387874 = weight(_text_:psychologie in 4805) [ClassicSimilarity], result of:
              0.09387874 = score(doc=4805,freq=2.0), product of:
                0.20633994 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03507538 = queryNorm
                0.45497125 = fieldWeight in 4805, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4805)
          0.5 = coord(1/2)
      0.4 = coord(4/10)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
    Series
    Spektrum der Wissenschaft - Extra: Datengetriebene Wissenschaft
    Source
    Spektrum der Wissenschaft. 2011, H.12, S.30-33
  5. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.10
    0.104553215 = product of:
      0.3485107 = sum of:
        0.16712701 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16712701 = score(doc=563,freq=2.0), product of:
            0.29736948 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03507538 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16712701 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16712701 = score(doc=563,freq=2.0), product of:
            0.29736948 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03507538 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.014256689 = product of:
          0.028513378 = sum of:
            0.028513378 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.028513378 = score(doc=563,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  6. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.10
    0.103479505 = product of:
      0.25869876 = sum of:
        0.094831854 = weight(_text_:psychologie in 1714) [ClassicSimilarity], result of:
          0.094831854 = score(doc=1714,freq=4.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.45959038 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.021619124 = weight(_text_:der in 1714) [ClassicSimilarity], result of:
          0.021619124 = score(doc=1714,freq=10.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.27592933 = fieldWeight in 1714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.094831854 = weight(_text_:psychologie in 1714) [ClassicSimilarity], result of:
          0.094831854 = score(doc=1714,freq=4.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.45959038 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.047415927 = product of:
          0.094831854 = sum of:
            0.094831854 = weight(_text_:psychologie in 1714) [ClassicSimilarity], result of:
              0.094831854 = score(doc=1714,freq=4.0), product of:
                0.20633994 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03507538 = queryNorm
                0.45959038 = fieldWeight in 1714, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1714)
          0.5 = coord(1/2)
      0.4 = coord(4/10)
    
    Classification
    CV 3500 Psychologie / Sozialpsychologie / Kommunikation, Massenmedien, soziale Beeinflussung, soziale Macht
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    CV 3500 Psychologie / Sozialpsychologie / Kommunikation, Massenmedien, soziale Beeinflussung, soziale Macht
  7. Schulz, A.: Motivierte Maschinen : Sprachcomputer (2002) 0.10
    0.100584365 = product of:
      0.3352812 = sum of:
        0.13411248 = weight(_text_:psychologie in 1309) [ClassicSimilarity], result of:
          0.13411248 = score(doc=1309,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.6499589 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
        0.13411248 = weight(_text_:psychologie in 1309) [ClassicSimilarity], result of:
          0.13411248 = score(doc=1309,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.6499589 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
        0.06705624 = product of:
          0.13411248 = sum of:
            0.13411248 = weight(_text_:psychologie in 1309) [ClassicSimilarity], result of:
              0.13411248 = score(doc=1309,freq=2.0), product of:
                0.20633994 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03507538 = queryNorm
                0.6499589 = fieldWeight in 1309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1309)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
    Source
    Gehirn und Geist: Das Magazin für Hirnforschung und Psychologie. 2002, H.3, S.54-56
  8. Schmidt, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft (2000) 0.08
    0.08203441 = product of:
      0.20508602 = sum of:
        0.06705624 = weight(_text_:psychologie in 5559) [ClassicSimilarity], result of:
          0.06705624 = score(doc=5559,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.32497945 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.037445422 = weight(_text_:der in 5559) [ClassicSimilarity], result of:
          0.037445422 = score(doc=5559,freq=30.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.47792363 = fieldWeight in 5559, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.06705624 = weight(_text_:psychologie in 5559) [ClassicSimilarity], result of:
          0.06705624 = score(doc=5559,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.32497945 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.03352812 = product of:
          0.06705624 = sum of:
            0.06705624 = weight(_text_:psychologie in 5559) [ClassicSimilarity], result of:
              0.06705624 = score(doc=5559,freq=2.0), product of:
                0.20633994 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03507538 = queryNorm
                0.32497945 = fieldWeight in 5559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5559)
          0.5 = coord(1/2)
      0.4 = coord(4/10)
    
    Abstract
    Tonmaterial in Form von Audio- oder Videoaufnahmen spielt in Bereichen der Wissenschaft, die sich mit verbaler Interaktion beschäftigen, eine bedeutende Rolle. Solche Gebiete sind u,a. die Linguistik, Psychologie, Soziologie und Kriminalistik. Gegenstand der Untersuchung können dabei z.B. die Formen des sprachlichen Handelns und der Sprachvariation in Abhängigkeit von der Situation oder die Ausprägung und Entwicklung von Sprachunterschieden vor dem sozialen Hintergrund sein. Im Rahmen der Analyse eines Gesprächsverlaufs kann beispielsweise die Form der Rederechtsicherung von Interesse sein. In diesem Zusammenhang stellen sich Fragen wie z.B. "Wie bringen Gesprächsteilnehrner Gesprächsbeteiligte dazu, ihre Rede zu unterbrechen?" oder "Wie wehren Gesprächsteilnehmer Unterbrechungsversuche voll anderen Teilnehmern ab?". Denkbar ist hier u.a. nach dem Vorkommen von "ausreden lassen" zu suchen, wobei diese beiden Wörter nicht unbedingt nebeneinander auftreten müssen. Bei der Suche nach Stellen an denen ein Gesprächsteilnehmer Ansprüche oder Forderungen an einen Gesprächspartner stellt, können die flektierten Formen der Modalverben wie z.B. "müssen", "sollen" oder "dürfen" für die Anfrage wichtig sein, während Konnektiva wie "aber", "ja aber" oder "doch" auf oppositive Gesprächsabschnitte verweisen können. Näheres zur gesprächsanalytischen Methodik kann Deppermann (1999) und Brünner et al. (1999) entnommen werden. In dem Bereich der Linguistik, die den Gebrauch von gesprochener Sprache in offiziellen und privaten Situationen zum Gegenstand hat, sind u.a. auch Aussprachevarianten von großem Interesse. Von der Untersuchung der Sprachfärbungen erhofft man sich detaillierte Aussagen über die Sprechersituation und die regionale (König (1988)) und soziale Herkunft des Sprechers machen zu können. In der Kriminalistik wirken solche Ergebnisse unterstützend bei der Identifizierung von Personen
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  9. Betrand-Gastaldy, S.: ¬La modelisation de l'analyse documentaire : à la convergence de la semiotique, de la psychologie cognitive et de l'intelligence (1995) 0.06
    0.060350623 = product of:
      0.20116873 = sum of:
        0.08046749 = weight(_text_:psychologie in 5377) [ClassicSimilarity], result of:
          0.08046749 = score(doc=5377,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.38997537 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.046875 = fieldNorm(doc=5377)
        0.08046749 = weight(_text_:psychologie in 5377) [ClassicSimilarity], result of:
          0.08046749 = score(doc=5377,freq=2.0), product of:
            0.20633994 = queryWeight, product of:
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.03507538 = queryNorm
            0.38997537 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8827567 = idf(docFreq=334, maxDocs=44218)
              0.046875 = fieldNorm(doc=5377)
        0.040233746 = product of:
          0.08046749 = sum of:
            0.08046749 = weight(_text_:psychologie in 5377) [ClassicSimilarity], result of:
              0.08046749 = score(doc=5377,freq=2.0), product of:
                0.20633994 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03507538 = queryNorm
                0.38997537 = fieldWeight in 5377, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5377)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
  10. ¬Der Student aus dem Computer (2023) 0.01
    0.012067407 = product of:
      0.060337037 = sum of:
        0.027071426 = weight(_text_:der in 1079) [ClassicSimilarity], result of:
          0.027071426 = score(doc=1079,freq=2.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.34551817 = fieldWeight in 1079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1079)
        0.03326561 = product of:
          0.06653122 = sum of:
            0.06653122 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.06653122 = score(doc=1079,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Date
    27. 1.2023 16:22:55
  11. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.01
    0.010343491 = product of:
      0.051717456 = sum of:
        0.023204079 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.023204079 = score(doc=4888,freq=2.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.028513378 = product of:
          0.057026755 = sum of:
            0.057026755 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.057026755 = score(doc=4888,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  12. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.01
    0.010343491 = product of:
      0.051717456 = sum of:
        0.023204079 = weight(_text_:der in 5429) [ClassicSimilarity], result of:
          0.023204079 = score(doc=5429,freq=2.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.29615843 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.028513378 = product of:
          0.057026755 = sum of:
            0.057026755 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.057026755 = score(doc=5429,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Noch immer ist der menschliche Übersetzer dem Computer in sprachlicher Hinsicht überlegen. Zwar ist die Übersetzungssoftware besser geworden, aber die systembedingten Probleme bleiben
    Source
    c't. 2000, H.22, S.230-231
  13. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.009812562 = product of:
      0.049062807 = sum of:
        0.034806117 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.034806117 = score(doc=1746,freq=18.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.014256689 = product of:
          0.028513378 = sum of:
            0.028513378 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.028513378 = score(doc=1746,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  14. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.01
    0.008490927 = product of:
      0.042454634 = sum of:
        0.03057406 = weight(_text_:der in 734) [ClassicSimilarity], result of:
          0.03057406 = score(doc=734,freq=20.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.390223 = fieldWeight in 734, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.011880575 = product of:
          0.02376115 = sum of:
            0.02376115 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.02376115 = score(doc=734,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  15. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.01
    0.007845369 = product of:
      0.039226845 = sum of:
        0.02734627 = weight(_text_:der in 190) [ClassicSimilarity], result of:
          0.02734627 = score(doc=190,freq=16.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.34902605 = fieldWeight in 190, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.011880575 = product of:
          0.02376115 = sum of:
            0.02376115 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.02376115 = score(doc=190,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
  16. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.01
    0.007563361 = product of:
      0.037816804 = sum of:
        0.0295004 = weight(_text_:der in 4044) [ClassicSimilarity], result of:
          0.0295004 = score(doc=4044,freq=38.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.37651968 = fieldWeight in 4044, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.008316402 = product of:
          0.016632805 = sum of:
            0.016632805 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.016632805 = score(doc=4044,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  17. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.0071550384 = product of:
      0.035775192 = sum of:
        0.01914239 = weight(_text_:der in 4184) [ClassicSimilarity], result of:
          0.01914239 = score(doc=4184,freq=4.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.24431825 = fieldWeight in 4184, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.016632805 = product of:
          0.03326561 = sum of:
            0.03326561 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.03326561 = score(doc=4184,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
  18. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.01
    0.0071126283 = product of:
      0.03556314 = sum of:
        0.023682564 = weight(_text_:der in 5557) [ClassicSimilarity], result of:
          0.023682564 = score(doc=5557,freq=12.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.30226544 = fieldWeight in 5557, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.011880575 = product of:
          0.02376115 = sum of:
            0.02376115 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.02376115 = score(doc=5557,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  19. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.01
    0.0068956614 = product of:
      0.034478307 = sum of:
        0.015469386 = weight(_text_:der in 1490) [ClassicSimilarity], result of:
          0.015469386 = score(doc=1490,freq=2.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.19743896 = fieldWeight in 1490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.01900892 = product of:
          0.03801784 = sum of:
            0.03801784 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.03801784 = score(doc=1490,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  20. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.01
    0.0067927423 = product of:
      0.03396371 = sum of:
        0.024459248 = weight(_text_:der in 4217) [ClassicSimilarity], result of:
          0.024459248 = score(doc=4217,freq=20.0), product of:
            0.07835022 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03507538 = queryNorm
            0.3121784 = fieldWeight in 4217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.00950446 = product of:
          0.01900892 = sum of:
            0.01900892 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.01900892 = score(doc=4217,freq=2.0), product of:
                0.12282801 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03507538 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44

Authors

Years

Languages

  • d 187
  • e 52
  • m 4
  • f 1
  • More… Less…

Types

  • a 173
  • m 39
  • el 34
  • s 16
  • x 12
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications