Search (184 results, page 1 of 10)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.32
    0.3161363 = product of:
      0.6322726 = sum of:
        0.029241884 = product of:
          0.11696754 = sum of:
            0.11696754 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.11696754 = score(doc=562,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.25 = coord(1/4)
        0.11696754 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11696754 = score(doc=562,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11696754 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11696754 = score(doc=562,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11696754 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11696754 = score(doc=562,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11696754 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11696754 = score(doc=562,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11696754 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11696754 = score(doc=562,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.01819305 = product of:
          0.0363861 = sum of:
            0.016430378 = weight(_text_:j in 562) [ClassicSimilarity], result of:
              0.016430378 = score(doc=562,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.21064025 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
            0.01995572 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.01995572 = score(doc=562,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(2/4)
      0.5 = coord(7/14)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.26
    0.26317695 = product of:
      0.61407954 = sum of:
        0.029241884 = product of:
          0.11696754 = sum of:
            0.11696754 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.11696754 = score(doc=862,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.25 = coord(1/4)
        0.11696754 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11696754 = score(doc=862,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11696754 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11696754 = score(doc=862,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11696754 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11696754 = score(doc=862,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11696754 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11696754 = score(doc=862,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11696754 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11696754 = score(doc=862,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.42857143 = coord(6/14)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.25
    0.25278282 = product of:
      0.5898266 = sum of:
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.00498893 = product of:
          0.01995572 = sum of:
            0.01995572 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.01995572 = score(doc=563,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.25 = coord(1/4)
      0.42857143 = coord(6/14)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.026894893 = product of:
      0.18826425 = sum of:
        0.18410681 = weight(_text_:semantik in 190) [ClassicSimilarity], result of:
          0.18410681 = score(doc=190,freq=18.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.1148655 = fieldWeight in 190, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.004157442 = product of:
          0.016629769 = sum of:
            0.016629769 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.016629769 = score(doc=190,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    BK
    17.56 Semantik
    Classification
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    17.56 Semantik
    Date
    14. 4.2007 10:04:22
    RSWK
    Lexikographie / Semantik / Kongress / Bonn <1995>
    RVK
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Subject
    Lexikographie / Semantik / Kongress / Bonn <1995>
  5. Dietze, J.: Texterschließung : lexikalische Semantik und Wissensrepräsentation (1994) 0.03
    0.025916774 = product of:
      0.1814174 = sum of:
        0.17183302 = weight(_text_:semantik in 2822) [ClassicSimilarity], result of:
          0.17183302 = score(doc=2822,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.0405412 = fieldWeight in 2822, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=2822)
        0.009584387 = product of:
          0.038337547 = sum of:
            0.038337547 = weight(_text_:j in 2822) [ClassicSimilarity], result of:
              0.038337547 = score(doc=2822,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4914939 = fieldWeight in 2822, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2822)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
  6. Räwel, J.: Automatisierte Kommunikation (2023) 0.02
    0.021084169 = product of:
      0.14758918 = sum of:
        0.14416619 = weight(_text_:handlungstheoretische in 909) [ClassicSimilarity], result of:
          0.14416619 = score(doc=909,freq=2.0), product of:
            0.25310734 = queryWeight, product of:
              10.310593 = idf(docFreq=3, maxDocs=44218)
              0.024548283 = queryNorm
            0.56958514 = fieldWeight in 909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              10.310593 = idf(docFreq=3, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.003422995 = product of:
          0.01369198 = sum of:
            0.01369198 = weight(_text_:j in 909) [ClassicSimilarity], result of:
              0.01369198 = score(doc=909,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.17553353 = fieldWeight in 909, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=909)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
  7. Dietze, J.; Völkel, H.: Verifikation einer Methode der lexikalischen Semantik : zur computergestützten Bestimmung der semantischen Konsistenz und des semantischen Abstands (1992) 0.01
    0.014809584 = product of:
      0.10366709 = sum of:
        0.09819029 = weight(_text_:semantik in 6680) [ClassicSimilarity], result of:
          0.09819029 = score(doc=6680,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.59459496 = fieldWeight in 6680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0625 = fieldNorm(doc=6680)
        0.0054767923 = product of:
          0.02190717 = sum of:
            0.02190717 = weight(_text_:j in 6680) [ClassicSimilarity], result of:
              0.02190717 = score(doc=6680,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.28085366 = fieldWeight in 6680, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6680)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
  8. Semantik und künstliche Intelligenz : Beiträge zur automatischen Sprachbearbeitung II (1977) 0.01
    0.014027186 = product of:
      0.19638059 = sum of:
        0.19638059 = weight(_text_:semantik in 6130) [ClassicSimilarity], result of:
          0.19638059 = score(doc=6130,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.1891899 = fieldWeight in 6130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.125 = fieldNorm(doc=6130)
      0.071428575 = coord(1/14)
    
  9. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.01
    0.012463785 = product of:
      0.08724649 = sum of:
        0.05042513 = weight(_text_:bedeutung in 3385) [ClassicSimilarity], result of:
          0.05042513 = score(doc=3385,freq=12.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.40837947 = fieldWeight in 3385, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.03682136 = weight(_text_:semantik in 3385) [ClassicSimilarity], result of:
          0.03682136 = score(doc=3385,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.22297311 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.14285715 = coord(2/14)
    
    Abstract
    Holländische Wissenschaftler glauben, mit der "normalisierten Google-Distanz" von Begriffen einer Künstlichen Intelligenz die Bedeutung von Worten automatisch lehren zu können
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  10. Minsky, M.L.: Materie, Geist, Modell (1977) 0.01
    0.0122737875 = product of:
      0.17183302 = sum of:
        0.17183302 = weight(_text_:semantik in 5547) [ClassicSimilarity], result of:
          0.17183302 = score(doc=5547,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.0405412 = fieldWeight in 5547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=5547)
      0.071428575 = coord(1/14)
    
    Source
    Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hsrg. u. eingeleitet von P. Eisenberg
  11. Schank, R.C.: Computer, elementare Aktionen und linguistische Theorien (1977) 0.01
    0.0122737875 = product of:
      0.17183302 = sum of:
        0.17183302 = weight(_text_:semantik in 6142) [ClassicSimilarity], result of:
          0.17183302 = score(doc=6142,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.0405412 = fieldWeight in 6142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=6142)
      0.071428575 = coord(1/14)
    
    Source
    Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. und eingeleitet von P. Eisenberg
  12. Winograd, T.: ¬Ein prozedurales Modell des Sprachverstehens (1977) 0.01
    0.0122737875 = product of:
      0.17183302 = sum of:
        0.17183302 = weight(_text_:semantik in 4707) [ClassicSimilarity], result of:
          0.17183302 = score(doc=4707,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.0405412 = fieldWeight in 4707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=4707)
      0.071428575 = coord(1/14)
    
    Source
    Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. u. eingeleitet von P. Eisenberg
  13. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.01
    0.011762153 = product of:
      0.16467014 = sum of:
        0.16467014 = weight(_text_:semantik in 1399) [ClassicSimilarity], result of:
          0.16467014 = score(doc=1399,freq=10.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.9971661 = fieldWeight in 1399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
      0.071428575 = coord(1/14)
    
    BK
    17.56 Semantik
    Classification
    17.56 Semantik
    RSWK
    Semantik / Wissensrepräsentation / Wörterbuch
    Subject
    Semantik / Wissensrepräsentation / Wörterbuch
  14. Hausser, R.: Grundlagen der Computerlinguistik : Mensch-Maschine-Kommunikation in natürlicher Sprache; mit 772 Übungen (2000) 0.01
    0.010581644 = product of:
      0.14814301 = sum of:
        0.14814301 = weight(_text_:handlung in 5352) [ClassicSimilarity], result of:
          0.14814301 = score(doc=5352,freq=2.0), product of:
            0.20284002 = queryWeight, product of:
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.024548283 = queryNorm
            0.7303441 = fieldWeight in 5352, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.0625 = fieldNorm(doc=5352)
      0.071428575 = coord(1/14)
    
    Abstract
    Die zentrale Aufgabe einer zukunftsorientierten Computerlinguistik ist die Entwicklung kognitiver Maschinen, mit denen Menschen in ihrer jeweiligen Sprache frei reden können. Für die natürlichsprachliche Kommunikation wird nicht nur Sprachverarbeitung, sondern auch nichtsprachliche Wahrnehmung und Handlung benötigt. Deshalb ist der Inhalt dieses Lehrbuchs als Sprachtheorie für die Konstruktion sprechender Roboter organisiert.
  15. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.01
    0.0070672617 = product of:
      0.04947083 = sum of:
        0.034309957 = weight(_text_:bedeutung in 5557) [ClassicSimilarity], result of:
          0.034309957 = score(doc=5557,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.27786705 = fieldWeight in 5557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.015160874 = product of:
          0.030321749 = sum of:
            0.01369198 = weight(_text_:j in 5557) [ClassicSimilarity], result of:
              0.01369198 = score(doc=5557,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.17553353 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
            0.016629769 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.016629769 = score(doc=5557,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.5 = coord(2/4)
      0.14285715 = coord(2/14)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
  16. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.01
    0.007013593 = product of:
      0.09819029 = sum of:
        0.09819029 = weight(_text_:semantik in 7072) [ClassicSimilarity], result of:
          0.09819029 = score(doc=7072,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.59459496 = fieldWeight in 7072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
      0.071428575 = coord(1/14)
    
    Footnote
    2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
  17. Sparck Jones, K.; Kay, M.: Linguistik und Informationswissenschaft (1976) 0.01
    0.007013593 = product of:
      0.09819029 = sum of:
        0.09819029 = weight(_text_:semantik in 3) [ClassicSimilarity], result of:
          0.09819029 = score(doc=3,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.59459496 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.071428575 = coord(1/14)
    
    Abstract
    Diese Arbeit befaßt sich mit den sprachlichen Aspekten der Informationswissenschaft, insbesondere mit den sprachlichen Komponenten der Analyse, der beschreibung und dem Retrieval von Dokumenten. Dabei wird erforscht, welche linguistischen Verfahren und Theorien von der Informationswissenschaft genützt werden können. Unter anderem werden untersucht die Anwendung der Sprachtheorie auf die Struktur der Erkenntnis, die Verwertung der Phonologie, Morphologie, Syntax und Semantik in der Organisation, der Speicherung und in der Überbringung von Informationen
  18. Rolland, M.T.: Logotechnik als Grundlage einer vollautomatischen Sprachverarbeitung (1995) 0.01
    0.007013593 = product of:
      0.09819029 = sum of:
        0.09819029 = weight(_text_:semantik in 1313) [ClassicSimilarity], result of:
          0.09819029 = score(doc=1313,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.59459496 = fieldWeight in 1313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0625 = fieldNorm(doc=1313)
      0.071428575 = coord(1/14)
    
    Abstract
    Mit Hilfe der Logotechnik, der rein semantikorientierten Methoden der Sprachverarbeitung, ist es möglich, die Sprache in ihren Regeln und Aufbaugesetzmäßigkeiten zu durchschauen und damit einer vollautomatischen Verarbeitung zugänglich zu machen. Semantik meint die geistige Seite der Sprache, die die Syntax impliziert. Im Zentrum der Betrachtungen steht das Wort, sein Inhalt und die von diesem bedingten Sprachstrukturen. Auf der Basis der Erkenntnisse vom Aufbau der Sprache ist die Konzeption eines Dialogsystems, und zwar eines Systems zur Wissensabfrage, dargestellt. Abschließend erfolgen Hinweise auf weitere mögliche Anwendungen, von denen die maschinelle Übersetzung von zentraler Wichtigkeit ist
  19. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.01
    0.007013593 = product of:
      0.09819029 = sum of:
        0.09819029 = weight(_text_:semantik in 5356) [ClassicSimilarity], result of:
          0.09819029 = score(doc=5356,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.59459496 = fieldWeight in 5356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
      0.071428575 = coord(1/14)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  20. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.01
    0.0061368938 = product of:
      0.08591651 = sum of:
        0.08591651 = weight(_text_:semantik in 3510) [ClassicSimilarity], result of:
          0.08591651 = score(doc=3510,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.5202706 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
      0.071428575 = coord(1/14)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber

Years

Languages

  • e 109
  • d 65
  • m 4
  • f 3
  • slv 1
  • More… Less…

Types

  • a 137
  • m 28
  • el 17
  • s 14
  • x 3
  • d 2
  • p 2
  • b 1
  • More… Less…

Subjects

Classifications