Search (757 results, page 1 of 38)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.25
    0.2451679 = product of:
      0.7600205 = sum of:
        0.03401735 = product of:
          0.10205205 = sum of:
            0.10205205 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.10205205 = score(doc=562,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0029333972 = weight(_text_:e in 562) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=562,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10205205 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10205205 = score(doc=562,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.008705502 = product of:
          0.017411005 = sum of:
            0.017411005 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.017411005 = score(doc=562,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.32258064 = coord(10/31)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Language
    e
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.22
    0.2181237 = product of:
      0.751315 = sum of:
        0.03401735 = product of:
          0.10205205 = sum of:
            0.10205205 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.10205205 = score(doc=862,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0029333972 = weight(_text_:e in 862) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=862,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.29032257 = coord(9/31)
    
    Language
    e
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.21
    0.2107751 = product of:
      0.72600317 = sum of:
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.0029333972 = weight(_text_:e in 563) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=563,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10205205 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10205205 = score(doc=563,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.008705502 = product of:
          0.017411005 = sum of:
            0.017411005 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.017411005 = score(doc=563,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.29032257 = coord(9/31)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
    Language
    e
  4. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.04
    0.03745467 = product of:
      0.19351579 = sum of:
        0.014093685 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.014093685 = score(doc=1047,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.05738305 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.05738305 = score(doc=1047,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.052261546 = weight(_text_:autoren in 1047) [ClassicSimilarity], result of:
          0.052261546 = score(doc=1047,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.052261546 = weight(_text_:autoren in 1047) [ClassicSimilarity], result of:
          0.052261546 = score(doc=1047,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.0034222968 = weight(_text_:e in 1047) [ClassicSimilarity], result of:
          0.0034222968 = score(doc=1047,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.1111659 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.014093685 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.014093685 = score(doc=1047,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.19354838 = coord(6/31)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  5. Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012) 0.04
    0.03686607 = product of:
      0.1904747 = sum of:
        0.020794136 = weight(_text_:und in 555) [ClassicSimilarity], result of:
          0.020794136 = score(doc=555,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.438048 = fieldWeight in 555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.015127198 = weight(_text_:im in 555) [ClassicSimilarity], result of:
          0.015127198 = score(doc=555,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.24985497 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.014304262 = weight(_text_:20 in 555) [ClassicSimilarity], result of:
          0.014304262 = score(doc=555,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.24296375 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.059727482 = weight(_text_:autoren in 555) [ClassicSimilarity], result of:
          0.059727482 = score(doc=555,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.49647325 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.059727482 = weight(_text_:autoren in 555) [ClassicSimilarity], result of:
          0.059727482 = score(doc=555,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.49647325 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.020794136 = weight(_text_:und in 555) [ClassicSimilarity], result of:
          0.020794136 = score(doc=555,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.438048 = fieldWeight in 555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
      0.19354838 = coord(6/31)
    
    Abstract
    In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
    Date
    7. 1.2013 20:59:44
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.5, S.292-296
  6. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.04
    0.036459662 = product of:
      0.14128119 = sum of:
        0.03609334 = weight(_text_:sprache in 91) [ClassicSimilarity], result of:
          0.03609334 = score(doc=91,freq=16.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.32453743 = fieldWeight in 91, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.019029759 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.019029759 = score(doc=91,freq=134.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.013100538 = weight(_text_:im in 91) [ClassicSimilarity], result of:
          0.013100538 = score(doc=91,freq=24.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.21638076 = fieldWeight in 91, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.023186253 = weight(_text_:einzelne in 91) [ClassicSimilarity], result of:
          0.023186253 = score(doc=91,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.18392956 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.014931871 = weight(_text_:autoren in 91) [ClassicSimilarity], result of:
          0.014931871 = score(doc=91,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.12411831 = fieldWeight in 91, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.014931871 = weight(_text_:autoren in 91) [ClassicSimilarity], result of:
          0.014931871 = score(doc=91,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.12411831 = fieldWeight in 91, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        9.777991E-4 = weight(_text_:e in 91) [ClassicSimilarity], result of:
          9.777991E-4 = score(doc=91,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.031761687 = fieldWeight in 91, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.019029759 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.019029759 = score(doc=91,freq=134.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
      0.2580645 = coord(8/31)
    
    Abstract
    Der vorliegende Band enthält Beiträge namhafter Autoren aus den Bereichen Informationswissenschaft, Computerlinguistik, Kommunikationswissenschaft, Bibliothekswesen und verwandten Fächern. Es werden sowohl aktuelle theoretische Themen behandelt, etwa zu Medientheorie und Internet, zum Verhältnis von Information und kulturellem Gedächtnis oder über Information im Museum, als auch praktische Anwendungen und Vorschläge gegeben, wie z.B. zur Automatischen Indexierung und zur Wissensrepräsentation.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt: Information und Sprache und mehr - eine Einleitung - Information und Kommunikation Wolf Rauch: Auch Information ist eine Tochter der Zeit Winfried Lenders: Information und kulturelles Gedächtnis Rainer Hammwöhner: Anmerkungen zur Grundlegung der Informationsethik Hans W. Giessen: Ehrwürdig stille Informationen Gernot Wersig: Vereinheitlichte Medientheorie und ihre Sicht auf das Internet Johann Haller, Anja Rütten: Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern? Rainer Kuhlen: In Richtung Summarizing für Diskurse in K3 Werner Schweibenz: Sprache, Information und Bedeutung im Museum. Narrative Vermittlung durch Storytelling - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung Manfred Thiel: Bedingt wahrscheinliche Syntaxbäume Jürgen Krause: Shell Model, Semantic Web and Web Information Retrieval Elisabeth Niggemann: Wer suchet, der findet? Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek Christa Womser-Hacker: Zur Rolle von Eigennamen im Cross-Language Information Retrieval Klaus-Dirk Schmitz: Wörterbuch, Thesaurus, Terminologie, Ontologie. Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei?
    Jiri Panyr: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? Heinz-Dieter Maas: Indexieren mit AUTINDEX Wilhelm Gaus, Rainer Kaluscha: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten Klaus Lepsky: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte - Analysen und Entwicklungen Ilse Harms: Die computervermittelte Kommunikation als ein Instrument des Wissensmanagements in Organisationen August- Wilhelm Scheer, Dirk Werth: Geschäftsregel-basiertes Geschäftsprozessmanagement Thomas Seeger: Akkreditierung und Evaluierung von Hochschullehre und -forschung in Großbritannien. Hinweise für die Situation in Deutschland Bernd Hagenau: Gehabte Sorgen hab' ich gern? Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 - Persönliches Jorgo Chatzimarkakis: Sprache und Information in Europa Alfred Gulden: 7 Briefe und eine Anmerkung Günter Scholdt: Der Weg nach Europa im Spiegel von Mundartgedichten Alfred Guldens Wolfgang Müller: Prof. Dr. Harald H. Zimmermann - Seit 45 Jahren der Universität des Saarlandes verbunden Heinz-Dirk Luckhardt: Computerlinguistik und Informationswissenschaft: Facetten des wissenschaftlichen Wirkens von Harald H. Zimmermann Schriftenverzeichnis Harald H. Zimmermanns 1967-2005 - Projekte in Verantwortung von Harald H. Zimmermann - Adressen der Beiträgerinnen und Beiträger
    Footnote
    Rez. in Mitt. VÖB 59(2006) Nr.3, S.75-78 (O. Oberhauser): "Beim vorliegenden Buch handelt es sich um die Festschrift zum 65. Geburtstag des mit Ende des Sommersemesters 2006 in den Ruhestand getretenen Universitätsprofessors für Informationswissenschaft, Harald H. Zimmermann, jenes 1941 in Völklingen geborenen Computerlinguisten, der die Informationswissenschaft als akademische Disziplin in Deutschland mitbegründet und seit 1980 an der Universität des Saarlandes vertreten hat. Die insgesamt 26 Beiträge des von Professor Zimmermanns Mitarbeitern betreuten, optisch gediegen anmutenden Saur-Bandes gliedern sich - so das Inhaltsverzeichnis - in vier Themenschwerpunkte: - Information und Kommunikation - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung - Analysen und Entwicklungen - Persönliches Die Aufsätze selbst variieren, wie bei Festschriften üblich bzw. unvermeidbar, hinsichtlich Länge, Stil, thematischem Detail und Anspruchsniveau. Neben wissenschaftlichen Beiträgen findet man hier auch Reminiszenzen und Literarisches. Die nachfolgende Auswahl zeigt, was mich selbst an diesem Buch interessiert hat:
    In Information und kulturelles Gedächtnis (S. 7-15) plädiert der Kommunikationswissenschaftler Winfried Lenders (Bonn) dafür, Information nicht mit dem zu identifizieren, was heute als (kulturelles) Gedächtnis bezeichnet wird. Information ist ein Prozess bzw. Vorgang und kein manifestes Substrat; sie setzt aber ein solches Substrat, nämlich das im (kulturellen) Gedächtnis abgespeicherte Wissen, voraus. Allerdings führt nicht jedes Informieren zu einer Vermehrung des kulturellen Gedächtnisses - das notwendige Auswahlkriterium liegt jedoch nicht in der grundsätzliche Möglichkeit zum Speichern von Inhalten. Es liegt auch nicht ausschliesslich in formalisierten Aussonderungsmechanismen wie Skartieren, Zitationsindizes und Relevanzrangreihen, sondern in der gesellschaftlichen Kommunikation schlechthin. Auch an die Verfügbarkeit des Schriftlichen ist das kulturelle Gedächtnis nicht gebunden, zumal ja auch in Kulturen der Oralität gesellschaftlich Wichtiges aufbewahrt wird. Rainer Hammwöhner (Regensburg) geht in Anmerkungen zur Grundlegung der Informationsethik (S. 17-27) zunächst auf die "Überversorgung" des Informationssektors mit Spezialethiken ein, wobei er neben der (als breiter angesehenen) Informationsethik konkurrierende Bereichsethiken wie Medienethik, Computerethik und Netzethik/Cyberethik thematisiert und Überlappungen, Abgrenzung, Hierarchisierung etc. diskutiert. Versuche einer diskursethischen wie einer normenethischen Begründung der Informationsethik sind nach Hammwöhner zum Scheitern verurteilt, sodass er einen pragmatistischen Standpunkt einnimmt, wonach Informationsethik ganz einfach "die Analyse und Systematisierung der im Zusammenhang der digitalen Kommunikation etablierten normativen Handlungsmuster" zu leisten habe. In diesem Konnex werden Fragen wie jene nach dem Guten, aber auch Aspekte wie die Bewahrung des kulturellen Erbes für spätere Generationen und der Erhalt der kulturellen Mannigfaltigkeit angesprochen. Der Beitrag des vor kurzem verstorbenen Gründungsvaters der deutschen Informationswissenschaft, Gernot Wersig (Berlin), ist mit Vereinheitlichte Medientheorie und ihre Sicht auf das Internet (S. 35-46) überschrieben. Der Autor gibt darin einen kurzen Überblick über bisherige medientheoretische Ansätze und versucht sodann - ausgehend von den Werken Niklas Luhmanns und Herbert Stachowiaks - eine "vereinheitlichte Medientheorie" zu entwickeln. Dabei werden die Faktoren Kommunikation, Medien, Medienplattformen und -typologien, Medienevolution und schließlich die digitale Revolution diskutiert. Das Internet, so folgert Wersig, sei eine Medienplattform mit dem Potential, eine ganze Epoche zu gestalten. In Anlehnung an den bekannten Begriff "Gutenberg-Galaxis" spricht er hier auch von einer "Internet-Galaxie". Obwohl dieser Artikel viele interessante Gedanken enthält, erschließt er sich dem Leser leider nur schwer, da vieles vorausgesetzt wird und auch der gewählte Soziologenjargon nicht jedermanns Sache ist.
    In Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (S. 139-151) gibt Jiri Panyr (München/Saarbrücken) eine gut lesbare und nützliche Übersicht über die im Titel des Beitrags genannten semantischen Repräsentationsformen, die im Zusammenhang mit dem Internet und insbesondere mit dem vorgeschlagenen Semantic Web immer wieder - und zwar häufig unpräzise oder gar unrichtig - Anwendung finden. Insbesondere die Ausführungen zum Modebegriff Ontologie zeigen, dass dieser nicht leichtfertig als Quasi-Synonym zu Thesaurus oder Klassifikation verwendet werden darf. Panyrs Beitrag ist übrigens thematisch verwandt mit jenem von K.-D. Schmitz (Köln), Wörterbuch, Thesaurus, Terminologie, Ontologie (S. 129-137). Abgesehen von dem einfallslosen Titel Wer suchet, der findet? (S. 107- 118) - zum Glück mit dem Untertitel Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek versehen - handelt es sich bei diesem Artikel von Elisabeth Niggemann (Frankfurt am Main) zwar um keinen wissenschaftlichen, doch sicherlich den praktischsten, lesbarsten und aus bibliothekarischer Sicht interessantesten des Buches. Niggemann gibt einen Überblick über die bisherige sachliche Erschliessung der bibliographischen Daten der inzwischen zur Deutschen Nationalbibliothek mutierten DDB, sowie einen Statusbericht nebst Ausblick über gegenwärtige bzw. geplante Verbesserungen der inhaltlichen Suche. Dazu zählen der breite Einsatz eines automatischen Indexierungsverfahrens (MILOS/IDX) ebenso wie Aktivitäten im klassifikatorischen Bereich (DDC), die Vernetzung nationaler Schlagwortsysteme (Projekt MACS) sowie die Beschäftigung mit Crosskonkordanzen (CARMEN) und Ansätzen zur Heterogenitätsbehandlung. Das hier von zentraler Stelle deklarierte "commitment" hinsichtlich der Verbesserung der sachlichen Erschließung des nationalen Online-Informationssystems erfüllt den eher nur Kleinmut und Gleichgültigkeit gewohnten phäakischen Beobachter mit Respekt und wehmutsvollem Neid.
    Mit automatischer Indexierung beschäftigen sich auch zwei weitere Beiträge. Indexieren mit AUTINDEX von H.-D. Mass (Saarbrücken) ist leider knapp und ohne didaktische Ambition verfasst, sodass man sich nicht wirklich vorstellen kann, wie dieses System funktioniert. Übersichtlicher stellt sich der Werkstattbericht Automatische Indexierung des Reallexikons zur deutschen Kunstgeschichte von K. Lepsky (Köln) dar, der zeigt, welche Probleme und Schritte bei der Digitalisierung, Indexierung und Web-Präsentation der Volltexte eines grossen fachlichen Nachschlagewerkes anfallen. Weitere interessante Beiträge befassen sich z.B. mit Summarizing-Leistungen im Rahmen eines e-Learning-Projektes (R. Kuhlen), mit dem Schalenmodell und dem Semantischen Web (J. Krause; aus nicht näher dargelegten Gründen in englischer Sprache) und mit der Akkreditierung/ Evaluierung von Hochschullehre und -forschung in Großbritannien (T. Seeger). In Summe liegt hier eine würdige Festschrift vor, über die sich der Gefeierte sicherlich gefreut haben wird. Für informationswissenschaftliche Spezialsammlungen und größere Bibliotheken ist der Band allemal eine Bereicherung. Ein Wermutstropfen aber doch: Obzwar mit Information und Sprache ein optisch ansprechend gestaltetes Buch produziert wurde, enthüllt eine nähere Betrachtung leider allzu viele Druckfehler, mangelhafte Worttrennungen, unkorrigierte grammatikalische Fehler, sowie auch Inkonsistenzen bei Kursivdruck und Satzzeichen. Lektoren und Korrektoren sind, so muss man wieder einmal schmerzlich zur Kenntnis nehmen, ein aussterbender Berufsstand."
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
  7. dpa: 14 Forscher mit viel Geld angelockt : Wolfgang-Paul-Preis (2001) 0.03
    0.032197386 = product of:
      0.16635317 = sum of:
        0.0663077 = weight(_text_:sprache in 6814) [ClassicSimilarity], result of:
          0.0663077 = score(doc=6814,freq=6.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.59621334 = fieldWeight in 6814, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.0120803015 = weight(_text_:und in 6814) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=6814,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 6814, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.03257833 = weight(_text_:literatur in 6814) [ClassicSimilarity], result of:
          0.03257833 = score(doc=6814,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.03257833 = weight(_text_:literatur in 6814) [ClassicSimilarity], result of:
          0.03257833 = score(doc=6814,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.010728197 = weight(_text_:20 in 6814) [ClassicSimilarity], result of:
          0.010728197 = score(doc=6814,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.0120803015 = weight(_text_:und in 6814) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=6814,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 6814, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
      0.19354838 = coord(6/31)
    
    Content
    Darin. "Die Sprachwissenschaftlerin Christiane Fellbaum (dpa-Bild) wird ihr Preisgeld für das an der Berlin-Brandenburgischen Akademie der Wissenschaften zu erstellende "Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts" einsetzen. Sie setzt mit ihrem Computer dort an, wo konventionelle Wörterbücher nicht mehr mithalten können. Sie stellt per Knopfdruck Wortverbindungen her, die eine Sprache so reich an Bildern und Vorstellungen - und damit einzigartig - machen. Ihr elektronisches Lexikon aus über 500 Millionen Wörtern soll später als Datenbank zugänglich sein. Seine Grundlage ist die deutsche Sprache der vergangenen hundert Jahre - ein repräsentativer Querschnitt, zusammengestellt aus Literatur, Zeitungsdeutsch, Fachbuchsprache, Werbetexten und niedergeschriebener Umgangssprache. Wo ein Wörterbuch heute nur ein Wort mit Synonymen oder wenigen Verwendungsmöglichkeiten präsentiert, spannt die Forscherin ein riesiges Netz von Wortverbindungen. Bei Christiane Fellbaums Systematik heißt es beispielsweise nicht nur "verlieren", sondern auch noch "den Faden" oder "die Geduld" verlieren - samt allen möglichen weiteren Kombinationen, die der Computer wie eine Suchmaschine in seinen gespeicherten Texten findet."
  8. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.03
    0.031924013 = product of:
      0.16494073 = sum of:
        0.038282767 = weight(_text_:sprache in 564) [ClassicSimilarity], result of:
          0.038282767 = score(doc=564,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
        0.018452967 = weight(_text_:und in 564) [ClassicSimilarity], result of:
          0.018452967 = score(doc=564,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
        0.016044816 = weight(_text_:im in 564) [ClassicSimilarity], result of:
          0.016044816 = score(doc=564,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
        0.069558755 = weight(_text_:einzelne in 564) [ClassicSimilarity], result of:
          0.069558755 = score(doc=564,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.5517887 = fieldWeight in 564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
        0.0041484507 = weight(_text_:e in 564) [ClassicSimilarity], result of:
          0.0041484507 = score(doc=564,freq=4.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.13475344 = fieldWeight in 564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
        0.018452967 = weight(_text_:und in 564) [ClassicSimilarity], result of:
          0.018452967 = score(doc=564,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
      0.19354838 = coord(6/31)
    
    Abstract
    Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesondere für Module im Bachelor-Studium geeignet macht.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    BFP (E)
    GHBS
    BFP (E)
  9. Sprachtechnologie : ein Überblick (2012) 0.03
    0.03147003 = product of:
      0.16259517 = sum of:
        0.031902306 = weight(_text_:sprache in 1750) [ClassicSimilarity], result of:
          0.031902306 = score(doc=1750,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.28685325 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.014236772 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.014236772 = score(doc=1750,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.027148608 = weight(_text_:literatur in 1750) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1750,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.027148608 = weight(_text_:literatur in 1750) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1750,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.04792211 = weight(_text_:jahrhundert in 1750) [ClassicSimilarity], result of:
          0.04792211 = score(doc=1750,freq=2.0), product of:
            0.13630733 = queryWeight, product of:
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.02141793 = queryNorm
            0.35157397 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.014236772 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.014236772 = score(doc=1750,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.19354838 = coord(6/31)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  10. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.03
    0.02929328 = product of:
      0.15134862 = sum of:
        0.025521845 = weight(_text_:sprache in 1735) [ClassicSimilarity], result of:
          0.025521845 = score(doc=1735,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.2294826 = fieldWeight in 1735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.01800825 = weight(_text_:und in 1735) [ClassicSimilarity], result of:
          0.01800825 = score(doc=1735,freq=30.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3793607 = fieldWeight in 1735, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.021718888 = weight(_text_:literatur in 1735) [ClassicSimilarity], result of:
          0.021718888 = score(doc=1735,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 1735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.021718888 = weight(_text_:literatur in 1735) [ClassicSimilarity], result of:
          0.021718888 = score(doc=1735,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 1735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.046372507 = weight(_text_:einzelne in 1735) [ClassicSimilarity], result of:
          0.046372507 = score(doc=1735,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.36785913 = fieldWeight in 1735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.01800825 = weight(_text_:und in 1735) [ClassicSimilarity], result of:
          0.01800825 = score(doc=1735,freq=30.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3793607 = fieldWeight in 1735, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.19354838 = coord(6/31)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  11. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.03
    0.028668256 = product of:
      0.14811933 = sum of:
        0.076565534 = weight(_text_:sprache in 5882) [ClassicSimilarity], result of:
          0.076565534 = score(doc=5882,freq=8.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.68844783 = fieldWeight in 5882, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.020923696 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.020923696 = score(doc=5882,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.016044816 = weight(_text_:im in 5882) [ClassicSimilarity], result of:
          0.016044816 = score(doc=5882,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.010728197 = weight(_text_:20 in 5882) [ClassicSimilarity], result of:
          0.010728197 = score(doc=5882,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.0029333972 = weight(_text_:e in 5882) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=5882,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.020923696 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.020923696 = score(doc=5882,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.19354838 = coord(6/31)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Date
    17. 5.2001 20:24:42
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  12. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.027222479 = product of:
      0.16877937 = sum of:
        0.031902306 = weight(_text_:sprache in 190) [ClassicSimilarity], result of:
          0.031902306 = score(doc=190,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.28685325 = fieldWeight in 190, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.035828423 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.035828423 = score(doc=190,freq=76.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.057965633 = weight(_text_:einzelne in 190) [ClassicSimilarity], result of:
          0.057965633 = score(doc=190,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.4598239 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.035828423 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.035828423 = score(doc=190,freq=76.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.007254585 = product of:
          0.01450917 = sum of:
            0.01450917 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.01450917 = score(doc=190,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.16129032 = coord(5/31)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  13. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.03
    0.026213935 = product of:
      0.13543867 = sum of:
        0.014093685 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.014093685 = score(doc=5809,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.038008053 = weight(_text_:literatur in 5809) [ClassicSimilarity], result of:
          0.038008053 = score(doc=5809,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.038008053 = weight(_text_:literatur in 5809) [ClassicSimilarity], result of:
          0.038008053 = score(doc=5809,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.018718952 = weight(_text_:im in 5809) [ClassicSimilarity], result of:
          0.018718952 = score(doc=5809,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.30917975 = fieldWeight in 5809, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.012516229 = weight(_text_:20 in 5809) [ClassicSimilarity], result of:
          0.012516229 = score(doc=5809,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.21259327 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.014093685 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.014093685 = score(doc=5809,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.19354838 = coord(6/31)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
    Date
    19. 7.2006 20:14:38
  14. Computerlinguistik und Sprachtechnologie : Eine Einführung (2001) 0.02
    0.024795765 = product of:
      0.15373375 = sum of:
        0.038282767 = weight(_text_:sprache in 1749) [ClassicSimilarity], result of:
          0.038282767 = score(doc=1749,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
        0.025147153 = weight(_text_:und in 1749) [ClassicSimilarity], result of:
          0.025147153 = score(doc=1749,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.5297484 = fieldWeight in 1749, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
        0.03257833 = weight(_text_:literatur in 1749) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1749,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
        0.03257833 = weight(_text_:literatur in 1749) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1749,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
        0.025147153 = weight(_text_:und in 1749) [ClassicSimilarity], result of:
          0.025147153 = score(doc=1749,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.5297484 = fieldWeight in 1749, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
      0.16129032 = coord(5/31)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  15. Manning, C.D.; Schütze, H.: Foundations of statistical natural language processing (2000) 0.02
    0.023606325 = product of:
      0.14635922 = sum of:
        0.05414001 = weight(_text_:sprache in 1603) [ClassicSimilarity], result of:
          0.05414001 = score(doc=1603,freq=4.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.48680615 = fieldWeight in 1603, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=1603)
        0.009863526 = weight(_text_:und in 1603) [ClassicSimilarity], result of:
          0.009863526 = score(doc=1603,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.20778441 = fieldWeight in 1603, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1603)
        0.069558755 = weight(_text_:einzelne in 1603) [ClassicSimilarity], result of:
          0.069558755 = score(doc=1603,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.5517887 = fieldWeight in 1603, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=1603)
        0.0029333972 = weight(_text_:e in 1603) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=1603,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 1603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=1603)
        0.009863526 = weight(_text_:und in 1603) [ClassicSimilarity], result of:
          0.009863526 = score(doc=1603,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.20778441 = fieldWeight in 1603, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1603)
      0.16129032 = coord(5/31)
    
    BK
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Classification
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Language
    e
    RSWK
    Computerlinguistik / Natürliche Sprache / Sprachstatistik
    Subject
    Computerlinguistik / Natürliche Sprache / Sprachstatistik
  16. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.02
    0.022163156 = product of:
      0.17176446 = sum of:
        0.038282767 = weight(_text_:sprache in 1399) [ClassicSimilarity], result of:
          0.038282767 = score(doc=1399,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 1399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
        0.031961475 = weight(_text_:und in 1399) [ClassicSimilarity], result of:
          0.031961475 = score(doc=1399,freq=42.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.6732984 = fieldWeight in 1399, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
        0.069558755 = weight(_text_:einzelne in 1399) [ClassicSimilarity], result of:
          0.069558755 = score(doc=1399,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.5517887 = fieldWeight in 1399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
        0.031961475 = weight(_text_:und in 1399) [ClassicSimilarity], result of:
          0.031961475 = score(doc=1399,freq=42.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.6732984 = fieldWeight in 1399, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
      0.12903225 = coord(4/31)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    Series
    Sprache, Sprechen und Computer ; 3
  17. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.02
    0.021233553 = product of:
      0.13164803 = sum of:
        0.078144364 = weight(_text_:sprache in 734) [ClassicSimilarity], result of:
          0.078144364 = score(doc=734,freq=12.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.7026441 = fieldWeight in 734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.016439209 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.016439209 = score(doc=734,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.01337068 = weight(_text_:im in 734) [ClassicSimilarity], result of:
          0.01337068 = score(doc=734,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.016439209 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.016439209 = score(doc=734,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.007254585 = product of:
          0.01450917 = sum of:
            0.01450917 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.01450917 = score(doc=734,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
      0.16129032 = coord(5/31)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  18. Linguistische Datenverarbeitung : Versuch einer Standortbestimmung im Umfeld von Informationslinguistik und künstlicher Intelligenz (1982) 0.02
    0.020881139 = product of:
      0.16182883 = sum of:
        0.08932645 = weight(_text_:sprache in 5143) [ClassicSimilarity], result of:
          0.08932645 = score(doc=5143,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.8031891 = fieldWeight in 5143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.109375 = fieldNorm(doc=5143)
        0.023014892 = weight(_text_:und in 5143) [ClassicSimilarity], result of:
          0.023014892 = score(doc=5143,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4848303 = fieldWeight in 5143, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5143)
        0.026472596 = weight(_text_:im in 5143) [ClassicSimilarity], result of:
          0.026472596 = score(doc=5143,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.4372462 = fieldWeight in 5143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.109375 = fieldNorm(doc=5143)
        0.023014892 = weight(_text_:und in 5143) [ClassicSimilarity], result of:
          0.023014892 = score(doc=5143,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4848303 = fieldWeight in 5143, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5143)
      0.12903225 = coord(4/31)
    
    Series
    Sprache und Information; 4
  19. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.02071997 = product of:
      0.16057977 = sum of:
        0.02599267 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.02599267 = score(doc=3412,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.054297216 = weight(_text_:literatur in 3412) [ClassicSimilarity], result of:
          0.054297216 = score(doc=3412,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.52923983 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.054297216 = weight(_text_:literatur in 3412) [ClassicSimilarity], result of:
          0.054297216 = score(doc=3412,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.52923983 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.02599267 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.02599267 = score(doc=3412,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.12903225 = coord(4/31)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  20. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.02
    0.020549437 = product of:
      0.12740651 = sum of:
        0.071335725 = weight(_text_:sprache in 2731) [ClassicSimilarity], result of:
          0.071335725 = score(doc=2731,freq=10.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.6414234 = fieldWeight in 2731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.01537747 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.01537747 = score(doc=2731,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.016375672 = weight(_text_:im in 2731) [ClassicSimilarity], result of:
          0.016375672 = score(doc=2731,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27047595 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.008940164 = weight(_text_:20 in 2731) [ClassicSimilarity], result of:
          0.008940164 = score(doc=2731,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.15185234 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.01537747 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.01537747 = score(doc=2731,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.16129032 = coord(5/31)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
    Content
    1. Aufl. u.d.T.: Die semantische Struktur natürlicher Sprache
    Date
    26. 7.2000 20:00:49
    RSWK
    Wissensrepräsentation / Semantisches Netz / Natürliche Sprache / Semantische Analyse / Syntaktische Analyse / Formale Beschreibungstechnik
    Subject
    Wissensrepräsentation / Semantisches Netz / Natürliche Sprache / Semantische Analyse / Syntaktische Analyse / Formale Beschreibungstechnik

Languages

  • e 534
  • d 213
  • ru 5
  • m 4
  • f 1
  • More… Less…

Types

  • a 592
  • m 91
  • el 85
  • s 35
  • x 16
  • p 7
  • d 3
  • n 2
  • pat 2
  • b 1
  • r 1
  • More… Less…

Subjects

Classifications