Search (288 results, page 1 of 15)

  • × theme_ss:"Computerlinguistik"
  1. Lutz-Westphal, B.: ChatGPT und der "Faktor Mensch" im schulischen Mathematikunterricht (2023) 0.15
    0.14791678 = product of:
      0.34513915 = sum of:
        0.11352313 = weight(_text_:mathematik in 930) [ClassicSimilarity], result of:
          0.11352313 = score(doc=930,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.61759853 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.017847002 = weight(_text_:und in 930) [ClassicSimilarity], result of:
          0.017847002 = score(doc=930,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.24487628 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.025637314 = weight(_text_:der in 930) [ClassicSimilarity], result of:
          0.025637314 = score(doc=930,freq=4.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.34902605 = fieldWeight in 930, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.11352313 = weight(_text_:mathematik in 930) [ClassicSimilarity], result of:
          0.11352313 = score(doc=930,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.61759853 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.017847002 = weight(_text_:und in 930) [ClassicSimilarity], result of:
          0.017847002 = score(doc=930,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.24487628 = fieldWeight in 930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=930)
        0.056761567 = product of:
          0.11352313 = sum of:
            0.11352313 = weight(_text_:mathematik in 930) [ClassicSimilarity], result of:
              0.11352313 = score(doc=930,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.61759853 = fieldWeight in 930, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.078125 = fieldNorm(doc=930)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Field
    Mathematik
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.19-21
  2. Hartnett, K.: Sind Sprachmodelle bald die besseren Mathematiker? (2023) 0.14
    0.14469863 = product of:
      0.33763015 = sum of:
        0.11352313 = weight(_text_:mathematik in 988) [ClassicSimilarity], result of:
          0.11352313 = score(doc=988,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.61759853 = fieldWeight in 988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.078125 = fieldNorm(doc=988)
        0.017847002 = weight(_text_:und in 988) [ClassicSimilarity], result of:
          0.017847002 = score(doc=988,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.24487628 = fieldWeight in 988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=988)
        0.018128319 = weight(_text_:der in 988) [ClassicSimilarity], result of:
          0.018128319 = score(doc=988,freq=2.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.2467987 = fieldWeight in 988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=988)
        0.11352313 = weight(_text_:mathematik in 988) [ClassicSimilarity], result of:
          0.11352313 = score(doc=988,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.61759853 = fieldWeight in 988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.078125 = fieldNorm(doc=988)
        0.017847002 = weight(_text_:und in 988) [ClassicSimilarity], result of:
          0.017847002 = score(doc=988,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.24487628 = fieldWeight in 988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=988)
        0.056761567 = product of:
          0.11352313 = sum of:
            0.11352313 = weight(_text_:mathematik in 988) [ClassicSimilarity], result of:
              0.11352313 = score(doc=988,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.61759853 = fieldWeight in 988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.078125 = fieldNorm(doc=988)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Algorithmen wie ChatGPT tun sich selbst mit einfachen Rechenaufgaben noch immer schwer. Zwei neue Ansätze sollen das ändern - und könnten KI deutlich intelligenter machen.
    Field
    Mathematik
    Source
    Spektrum der Wissenschaft. 2023, H.7, S.28-31
  3. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.13
    0.13499464 = product of:
      0.377985 = sum of:
        0.035694003 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.035694003 = score(doc=3413,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.14423434 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.14423434 = score(doc=3413,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.018128319 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.018128319 = score(doc=3413,freq=2.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.14423434 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.14423434 = score(doc=3413,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.035694003 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.035694003 = score(doc=3413,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.35714287 = coord(5/14)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  4. Strube, M.: Kreativ durch Analogien (2011) 0.12
    0.12469352 = product of:
      0.29095155 = sum of:
        0.079466194 = weight(_text_:mathematik in 4805) [ClassicSimilarity], result of:
          0.079466194 = score(doc=4805,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.030601231 = weight(_text_:und in 4805) [ClassicSimilarity], result of:
          0.030601231 = score(doc=4805,freq=12.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.41987535 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.031083591 = weight(_text_:der in 4805) [ClassicSimilarity], result of:
          0.031083591 = score(doc=4805,freq=12.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.4231716 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.079466194 = weight(_text_:mathematik in 4805) [ClassicSimilarity], result of:
          0.079466194 = score(doc=4805,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.030601231 = weight(_text_:und in 4805) [ClassicSimilarity], result of:
          0.030601231 = score(doc=4805,freq=12.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.41987535 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.039733097 = product of:
          0.079466194 = sum of:
            0.079466194 = weight(_text_:mathematik in 4805) [ClassicSimilarity], result of:
              0.079466194 = score(doc=4805,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.432319 = fieldWeight in 4805, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4805)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
    Series
    Spektrum der Wissenschaft - Extra: Datengetriebene Wissenschaft
    Source
    Spektrum der Wissenschaft. 2011, H.12, S.30-33
  5. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.11
    0.11378729 = product of:
      0.3186044 = sum of:
        0.02472953 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.02472953 = score(doc=4891,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.11538747 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.11538747 = score(doc=4891,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.03837042 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.03837042 = score(doc=4891,freq=14.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.11538747 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.11538747 = score(doc=4891,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.02472953 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.02472953 = score(doc=4891,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.35714287 = coord(5/14)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  6. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.11
    0.10827394 = product of:
      0.37895876 = sum of:
        0.05222757 = product of:
          0.15668271 = sum of:
            0.15668271 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.15668271 = score(doc=562,freq=2.0), product of:
                0.2787859 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03288341 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.15668271 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15668271 = score(doc=562,freq=2.0), product of:
            0.2787859 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03288341 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15668271 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15668271 = score(doc=562,freq=2.0), product of:
            0.2787859 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03288341 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.013365744 = product of:
          0.026731487 = sum of:
            0.026731487 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.026731487 = score(doc=562,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  7. Stock, W.G.: Textwortmethode (2000) 0.10
    0.09735194 = product of:
      0.27258542 = sum of:
        0.02523947 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.02523947 = score(doc=3408,freq=4.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.10198908 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.10198908 = score(doc=3408,freq=2.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.018128319 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.018128319 = score(doc=3408,freq=2.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.10198908 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.10198908 = score(doc=3408,freq=2.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.02523947 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.02523947 = score(doc=3408,freq=4.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
      0.35714287 = coord(5/14)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  8. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.09
    0.08776731 = product of:
      0.20479038 = sum of:
        0.056761567 = weight(_text_:mathematik in 126) [ClassicSimilarity], result of:
          0.056761567 = score(doc=126,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.30879927 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.017847002 = weight(_text_:und in 126) [ClassicSimilarity], result of:
          0.017847002 = score(doc=126,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.24487628 = fieldWeight in 126, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.027192477 = weight(_text_:der in 126) [ClassicSimilarity], result of:
          0.027192477 = score(doc=126,freq=18.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.37019804 = fieldWeight in 126, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.056761567 = weight(_text_:mathematik in 126) [ClassicSimilarity], result of:
          0.056761567 = score(doc=126,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.30879927 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.017847002 = weight(_text_:und in 126) [ClassicSimilarity], result of:
          0.017847002 = score(doc=126,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.24487628 = fieldWeight in 126, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.028380783 = product of:
          0.056761567 = sum of:
            0.056761567 = weight(_text_:mathematik in 126) [ClassicSimilarity], result of:
              0.056761567 = score(doc=126,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.30879927 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=126)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  9. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.08
    0.078341365 = product of:
      0.36559302 = sum of:
        0.05222757 = product of:
          0.15668271 = sum of:
            0.15668271 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.15668271 = score(doc=862,freq=2.0), product of:
                0.2787859 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03288341 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.15668271 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15668271 = score(doc=862,freq=2.0), product of:
            0.2787859 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03288341 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15668271 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15668271 = score(doc=862,freq=2.0), product of:
            0.2787859 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03288341 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.21428572 = coord(3/14)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  10. Kiss, T.: Anmerkungen zur scheinbaren Konkurrenz von numerischen und symbolischen Verfahren in der Computerlinguistik (2002) 0.08
    0.07579962 = product of:
      0.17686579 = sum of:
        0.045409255 = weight(_text_:mathematik in 1752) [ClassicSimilarity], result of:
          0.045409255 = score(doc=1752,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.24703942 = fieldWeight in 1752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
        0.0214164 = weight(_text_:und in 1752) [ClassicSimilarity], result of:
          0.0214164 = score(doc=1752,freq=18.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.29385152 = fieldWeight in 1752, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
        0.02050985 = weight(_text_:der in 1752) [ClassicSimilarity], result of:
          0.02050985 = score(doc=1752,freq=16.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.27922085 = fieldWeight in 1752, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
        0.045409255 = weight(_text_:mathematik in 1752) [ClassicSimilarity], result of:
          0.045409255 = score(doc=1752,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.24703942 = fieldWeight in 1752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
        0.0214164 = weight(_text_:und in 1752) [ClassicSimilarity], result of:
          0.0214164 = score(doc=1752,freq=18.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.29385152 = fieldWeight in 1752, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
        0.022704627 = product of:
          0.045409255 = sum of:
            0.045409255 = weight(_text_:mathematik in 1752) [ClassicSimilarity], result of:
              0.045409255 = score(doc=1752,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.24703942 = fieldWeight in 1752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1752)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Veränderungen in der Mode vollziehen sich schrittweise, allmählich, oftmals unmerklich. Manchmal kommt es dann doch zu einem plötzlichen Bruch, zu einer eindeutig bestimmten Opposition zwischen dem modischen Jetzt und seinem Vorgänger. Deutlich erkennbar etwa, als um die Wende von den 70er zu den 80er Jahren die weite Karotte die enge Schlaghose verdrängte und im Gefolge dieses Wechsels taillierte Sakkos und Hemden big suits und Polohemden weichen mussten. Etwas Ähnliches hat sich vor einigen Jahren in der Computerlinguistik ereignet: Wurde diese seit Beginn der 80er Jahre durch deduktive, regelbasierte Verfahren beherrscht, so gab es seit Beginn der 90er Jahre zunächst eine Hinwendung, schließlich Mitte der 90er Jahre eine Flucht zu induktiven, numerisch basierten Verfahren, die mittlerweile die Computerlinguistik nahezu vollständig zu beherrschen scheinen.
    Man kann wohl abschließend festhalten, dass von einer Überlegenheit statistischer Verfahren zumindest im Bereich des Tagging eigentlich nicht gesprochen werden sollte. Darüber hinaus muss die Opposition zwischen regelbasierten und numerischen Verfahren hier aufgeweicht werden, denn auch die statistischen Verfahren verwenden Regelsysteme. Selbst beim Lernen ohne Referenzkorpus ist ja zumindest eine Zuordnung der Wörter zu einem Lexikon bzw. auch eine heuristische Erkennung unbekannter Wörter nach Regeln notwendig. Statistische Verfahren haben - und dies wurde hier wahrscheinlich nicht ausreichend betont - durchaus ihre Berechtigung, sie sind nützlich; sie gestatten, insbesondere im Vergleich zur Introspektion, eine unmittelbarere und breitere Heranführung an das Phänomen Sprache. Die vorhandenen umfangreichen elektronischen Korpora verlangen nahezu danach, Sprache auch mit statistischen Mitteln zu untersuchen. Allerdings können die statistischen Verfahren die regelbasierten Verfahren nicht ersetzen. Somit muss dem Diktum vom "Es geht nicht anders" deutlich widersprochen werden. Dass die statistischen Verfahren zur Zeit so en vogue sind und die regelbasierten Verfahren aussehen lassen wie eine alte Dallas-Folge, mag wohl auch daran liegen, dass zu viele Vertreter des alten Paradigmas nicht die Energie aufbringen, sich dem neuen Paradigma so weit zu öffnen, dass eine kritische Auseinandersetzung mit dem neuen auf der Basis des alten möglich wird. Die Mathematik ist eine geachtete, weil schwierige Wissenschaft, die statistische Sprachverarbeitung ist eine gefürchtete, weil in ihren Eigenschaften oftmals nicht gründlich genug betrachtete Disziplin.
  11. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.07
    0.07001382 = product of:
      0.32673118 = sum of:
        0.15668271 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15668271 = score(doc=563,freq=2.0), product of:
            0.2787859 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03288341 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15668271 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15668271 = score(doc=563,freq=2.0), product of:
            0.2787859 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03288341 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.013365744 = product of:
          0.026731487 = sum of:
            0.026731487 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.026731487 = score(doc=563,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  12. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.07
    0.0669025 = product of:
      0.15610585 = sum of:
        0.03405694 = weight(_text_:mathematik in 3385) [ClassicSimilarity], result of:
          0.03405694 = score(doc=3385,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.18527956 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.025677362 = weight(_text_:und in 3385) [ClassicSimilarity], result of:
          0.025677362 = score(doc=3385,freq=46.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.3523156 = fieldWeight in 3385, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.019608773 = weight(_text_:der in 3385) [ClassicSimilarity], result of:
          0.019608773 = score(doc=3385,freq=26.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.2669536 = fieldWeight in 3385, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.03405694 = weight(_text_:mathematik in 3385) [ClassicSimilarity], result of:
          0.03405694 = score(doc=3385,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.18527956 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.025677362 = weight(_text_:und in 3385) [ClassicSimilarity], result of:
          0.025677362 = score(doc=3385,freq=46.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.3523156 = fieldWeight in 3385, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.01702847 = product of:
          0.03405694 = sum of:
            0.03405694 = weight(_text_:mathematik in 3385) [ClassicSimilarity], result of:
              0.03405694 = score(doc=3385,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.18527956 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Holländische Wissenschaftler glauben, mit der "normalisierten Google-Distanz" von Begriffen einer Künstlichen Intelligenz die Bedeutung von Worten automatisch lehren zu können
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
    Footnote
    Artikel in der ListeTelepolis vom 27.01.2005
  13. Schöneberg, U.; Sperber, W.: POS tagging and its applications for mathematics (2014) 0.05
    0.05160406 = product of:
      0.24081893 = sum of:
        0.09632757 = weight(_text_:mathematik in 1748) [ClassicSimilarity], result of:
          0.09632757 = score(doc=1748,freq=4.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.52404976 = fieldWeight in 1748, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.046875 = fieldNorm(doc=1748)
        0.09632757 = weight(_text_:mathematik in 1748) [ClassicSimilarity], result of:
          0.09632757 = score(doc=1748,freq=4.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.52404976 = fieldWeight in 1748, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.046875 = fieldNorm(doc=1748)
        0.048163787 = product of:
          0.09632757 = sum of:
            0.09632757 = weight(_text_:mathematik in 1748) [ClassicSimilarity], result of:
              0.09632757 = score(doc=1748,freq=4.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.52404976 = fieldWeight in 1748, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1748)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Field
    Mathematik
    Object
    Zentralblatt für Mathematik
  14. Stoykova, V.; Petkova, E.: Automatic extraction of mathematical terms for precalculus (2012) 0.04
    0.042571176 = product of:
      0.19866548 = sum of:
        0.079466194 = weight(_text_:mathematik in 156) [ClassicSimilarity], result of:
          0.079466194 = score(doc=156,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=156)
        0.079466194 = weight(_text_:mathematik in 156) [ClassicSimilarity], result of:
          0.079466194 = score(doc=156,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=156)
        0.039733097 = product of:
          0.079466194 = sum of:
            0.079466194 = weight(_text_:mathematik in 156) [ClassicSimilarity], result of:
              0.079466194 = score(doc=156,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.432319 = fieldWeight in 156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=156)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Field
    Mathematik
  15. Aizawa, A.; Kohlhase, M.: Mathematical information retrieval (2021) 0.04
    0.042571176 = product of:
      0.19866548 = sum of:
        0.079466194 = weight(_text_:mathematik in 667) [ClassicSimilarity], result of:
          0.079466194 = score(doc=667,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=667)
        0.079466194 = weight(_text_:mathematik in 667) [ClassicSimilarity], result of:
          0.079466194 = score(doc=667,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=667)
        0.039733097 = product of:
          0.079466194 = sum of:
            0.079466194 = weight(_text_:mathematik in 667) [ClassicSimilarity], result of:
              0.079466194 = score(doc=667,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.432319 = fieldWeight in 667, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=667)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Field
    Mathematik
  16. Collard, J.; Paiva, V. de; Fong, B.; Subrahmanian, E.: Extracting mathematical concepts from text (2022) 0.04
    0.042571176 = product of:
      0.19866548 = sum of:
        0.079466194 = weight(_text_:mathematik in 668) [ClassicSimilarity], result of:
          0.079466194 = score(doc=668,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=668)
        0.079466194 = weight(_text_:mathematik in 668) [ClassicSimilarity], result of:
          0.079466194 = score(doc=668,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=668)
        0.039733097 = product of:
          0.079466194 = sum of:
            0.079466194 = weight(_text_:mathematik in 668) [ClassicSimilarity], result of:
              0.079466194 = score(doc=668,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.432319 = fieldWeight in 668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=668)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Field
    Mathematik
  17. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.04
    0.0419405 = product of:
      0.14679174 = sum of:
        0.05500815 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.05500815 = score(doc=190,freq=76.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.025637314 = weight(_text_:der in 190) [ClassicSimilarity], result of:
          0.025637314 = score(doc=190,freq=16.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.34902605 = fieldWeight in 190, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.05500815 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.05500815 = score(doc=190,freq=76.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.011138121 = product of:
          0.022276241 = sum of:
            0.022276241 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.022276241 = score(doc=190,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  18. Witschel, H.F.: Global and local resources for peer-to-peer text retrieval (2008) 0.04
    0.039937727 = product of:
      0.11182564 = sum of:
        0.039733097 = weight(_text_:mathematik in 127) [ClassicSimilarity], result of:
          0.039733097 = score(doc=127,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.2161595 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.02734375 = fieldNorm(doc=127)
        0.0062464504 = weight(_text_:und in 127) [ClassicSimilarity], result of:
          0.0062464504 = score(doc=127,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.085706696 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=127)
        0.039733097 = weight(_text_:mathematik in 127) [ClassicSimilarity], result of:
          0.039733097 = score(doc=127,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.2161595 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.02734375 = fieldNorm(doc=127)
        0.0062464504 = weight(_text_:und in 127) [ClassicSimilarity], result of:
          0.0062464504 = score(doc=127,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.085706696 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=127)
        0.019866548 = product of:
          0.039733097 = sum of:
            0.039733097 = weight(_text_:mathematik in 127) [ClassicSimilarity], result of:
              0.039733097 = score(doc=127,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.2161595 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=127)
          0.5 = coord(1/2)
      0.35714287 = coord(5/14)
    
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  19. Engerer, V.: Informationswissenschaft und Linguistik. : kurze Geschichte eines fruchtbaren interdisziplinäaren Verhäaltnisses in drei Akten (2012) 0.03
    0.03083425 = product of:
      0.14389317 = sum of:
        0.082069345 = weight(_text_:geschichte in 3376) [ClassicSimilarity], result of:
          0.082069345 = score(doc=3376,freq=2.0), product of:
            0.15628827 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.03288341 = queryNorm
            0.5251152 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.030911913 = weight(_text_:und in 3376) [ClassicSimilarity], result of:
          0.030911913 = score(doc=3376,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.42413816 = fieldWeight in 3376, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.030911913 = weight(_text_:und in 3376) [ClassicSimilarity], result of:
          0.030911913 = score(doc=3376,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.42413816 = fieldWeight in 3376, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
      0.21428572 = coord(3/14)
    
    Source
    SDV - Sprache und Datenverarbeitung. International journal for language data processing. 36(2012) H.2, S.71-91 [= E-Books - Fakten, Perspektiven und Szenarien] 36/2 (2012), S. 71-91
  20. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.03
    0.029331198 = product of:
      0.10265919 = sum of:
        0.028331235 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.028331235 = score(doc=1746,freq=14.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.032630973 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.032630973 = score(doc=1746,freq=18.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028331235 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.028331235 = score(doc=1746,freq=14.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.013365744 = product of:
          0.026731487 = sum of:
            0.026731487 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.026731487 = score(doc=1746,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30

Years

Languages

  • d 218
  • e 66
  • m 4
  • ru 1
  • More… Less…

Types

  • a 205
  • m 48
  • el 42
  • s 18
  • x 13
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications