Search (127 results, page 1 of 7)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.28
    0.27722305 = product of:
      0.41583455 = sum of:
        0.057991527 = product of:
          0.17397457 = sum of:
            0.17397457 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.17397457 = score(doc=562,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.17397457 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17397457 = score(doc=562,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.17397457 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17397457 = score(doc=562,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.009893879 = product of:
          0.029681636 = sum of:
            0.029681636 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.029681636 = score(doc=562,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.6666667 = coord(4/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.20
    0.20297034 = product of:
      0.40594068 = sum of:
        0.057991527 = product of:
          0.17397457 = sum of:
            0.17397457 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.17397457 = score(doc=862,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.17397457 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.17397457 = score(doc=862,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.17397457 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.17397457 = score(doc=862,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(3/6)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.18
    0.17892152 = product of:
      0.35784304 = sum of:
        0.17397457 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.17397457 = score(doc=563,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.17397457 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.17397457 = score(doc=563,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009893879 = product of:
          0.029681636 = sum of:
            0.029681636 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.029681636 = score(doc=563,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.04
    0.044786863 = product of:
      0.13436058 = sum of:
        0.11457283 = weight(_text_:forschung in 4888) [ClassicSimilarity], result of:
          0.11457283 = score(doc=4888,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.64500517 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.019787759 = product of:
          0.059363272 = sum of:
            0.059363272 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.059363272 = score(doc=4888,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  5. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.02
    0.022423368 = product of:
      0.0672701 = sum of:
        0.057286415 = weight(_text_:forschung in 5629) [ClassicSimilarity], result of:
          0.057286415 = score(doc=5629,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.009983689 = product of:
          0.029951064 = sum of:
            0.029951064 = weight(_text_:29 in 5629) [ClassicSimilarity], result of:
              0.029951064 = score(doc=5629,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23319192 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
    Date
    29. 1.1997 18:49:05
  6. Konrad, K.; Maier, H.; Pinkal, M.; Milward, D.: CLEARS: ein Werkzeug für Ausbildung und Forschung in der Computerlinguistik (1996) 0.02
    0.019095473 = product of:
      0.11457283 = sum of:
        0.11457283 = weight(_text_:forschung in 7298) [ClassicSimilarity], result of:
          0.11457283 = score(doc=7298,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.64500517 = fieldWeight in 7298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=7298)
      0.16666667 = coord(1/6)
    
  7. Wilhelm, K.: ¬Die Macht der Grammatik (2000) 0.02
    0.015912894 = product of:
      0.09547736 = sum of:
        0.09547736 = weight(_text_:forschung in 5510) [ClassicSimilarity], result of:
          0.09547736 = score(doc=5510,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 5510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=5510)
      0.16666667 = coord(1/6)
    
    Source
    Max Planck Forschung. 2000, H.1, S.26-32
  8. Wolfangel, E.: Ich verstehe (2017) 0.02
    0.015912894 = product of:
      0.09547736 = sum of:
        0.09547736 = weight(_text_:forschung in 3976) [ClassicSimilarity], result of:
          0.09547736 = score(doc=3976,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 3976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=3976)
      0.16666667 = coord(1/6)
    
    Series
    Wissen: Technik, Forschung, Umwelt, Mensch
  9. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.02
    0.015912894 = product of:
      0.09547736 = sum of:
        0.09547736 = weight(_text_:forschung in 1044) [ClassicSimilarity], result of:
          0.09547736 = score(doc=1044,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
      0.16666667 = coord(1/6)
    
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  10. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023) 0.02
    0.015912894 = product of:
      0.09547736 = sum of:
        0.09547736 = weight(_text_:forschung in 1051) [ClassicSimilarity], result of:
          0.09547736 = score(doc=1051,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 1051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
      0.16666667 = coord(1/6)
    
    Content
    Wiederabdruck des Beitrags aus: Forschung & Lehre vom 20.12.2022. Vgl.: DOI 10.1515/dmvm-2023-0007.
  11. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.01
    0.014948912 = product of:
      0.044846736 = sum of:
        0.038190942 = weight(_text_:forschung in 877) [ClassicSimilarity], result of:
          0.038190942 = score(doc=877,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.0066557927 = product of:
          0.019967377 = sum of:
            0.019967377 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.019967377 = score(doc=877,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
  12. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.01
    0.012730314 = product of:
      0.076381885 = sum of:
        0.076381885 = weight(_text_:forschung in 4018) [ClassicSimilarity], result of:
          0.076381885 = score(doc=4018,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 4018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
  13. Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012) 0.01
    0.012730314 = product of:
      0.076381885 = sum of:
        0.076381885 = weight(_text_:forschung in 555) [ClassicSimilarity], result of:
          0.076381885 = score(doc=555,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
      0.16666667 = coord(1/6)
    
    Abstract
    In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
  14. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.01
    0.012730314 = product of:
      0.076381885 = sum of:
        0.076381885 = weight(_text_:forschung in 2818) [ClassicSimilarity], result of:
          0.076381885 = score(doc=2818,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.16666667 = coord(1/6)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
  15. Siegel, M.: Maschinelle Übersetzung (2023) 0.01
    0.012730314 = product of:
      0.076381885 = sum of:
        0.076381885 = weight(_text_:forschung in 792) [ClassicSimilarity], result of:
          0.076381885 = score(doc=792,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
      0.16666667 = coord(1/6)
    
    Abstract
    Die maschinelle Übersetzung von Sprache ist ein Menschheitstraum, an dem nunmehr schon fast hundert Jahre geforscht wird. Maschinelle Übersetzung ermöglicht im Idealfall den Erhalt der diversen Sprachkulturen bei der gleichzeitigen Möglichkeit einer interkulturellen Verständigung. Die Forschung zur maschinellen Übersetzung ist dabei von Brüchen geprägt.
  16. Natural language processing and speech technology : Results of the 3rd KONVENS Conference, Bielefeld, October 1996 (1996) 0.01
    0.0095477365 = product of:
      0.057286415 = sum of:
        0.057286415 = weight(_text_:forschung in 7291) [ClassicSimilarity], result of:
          0.057286415 = score(doc=7291,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 7291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=7291)
      0.16666667 = coord(1/6)
    
    Content
    Enthält u.a. die Beiträge: HILDEBRANDT, B. u.a.: Kognitive Modellierung von Sprach- und Bildverstehen; KELLER, F.: How do humans deal with ungrammatical input? Experimental evidence and computational modelling; MARX, J:: Die 'Computer-Talk-These' in der Sprachgenerierung: Hinweise zur Gestaltung natürlichsprachlicher Zustandsanzeigen in multimodalen Informationssystemen; SCHULTZ, T. u. H. SOLTAU: Automatische Identifizierung spontan gesprochener Sprachen mit neuronalen Netzen; WAUSCHKUHN, O.: Ein Werkzeug zur partiellen syntaktischen Analyse deutscher Textkorpora; LEZIUS, W., R. RAPP u. M. WETTLER: A morphology-system and part-of-speech tagger for German; KONRAD, K. u.a.: CLEARS: ein Werkzeug für Ausbildung und Forschung in der Computerlinguistik
  17. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.007956447 = product of:
      0.04773868 = sum of:
        0.04773868 = weight(_text_:forschung in 2731) [ClassicSimilarity], result of:
          0.04773868 = score(doc=2731,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  18. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.01
    0.007956447 = product of:
      0.04773868 = sum of:
        0.04773868 = weight(_text_:forschung in 123) [ClassicSimilarity], result of:
          0.04773868 = score(doc=123,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  19. Geißler, S.: Natürliche Sprachverarbeitung und Künstliche Intelligenz : ein wachsender Markt mit vielen Chancen. Das Beispiel Kairntech (2020) 0.01
    0.007956447 = product of:
      0.04773868 = sum of:
        0.04773868 = weight(_text_:forschung in 5924) [ClassicSimilarity], result of:
          0.04773868 = score(doc=5924,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
      0.16666667 = coord(1/6)
    
    Abstract
    Vor rund einem Jahr haben wir an dieser Stelle die aufregende Dynamik auf den Gebieten der Natürlichen Sprachverarbeitung (NLP) und der Künstlichen Intelligenz (KI) beschrieben: Seit einigen Jahren sorgen Fortschritte in den algorithmischen Grundlagen, in der einsetzbaren Rechenleistung sowie in der Verfügbarkeit von großen Datenmengen für immer leistungsfähigere Systeme. NLP-Anwendungen seien damit mehr denn je reif für den praktischen Einsatz, hatten wir argumentiert. Diese Entwicklung verfolgen wir bei Kairntech nicht allein als interessierte Beobachter, sondern sie stellt die Grundlage unserer Arbeit dar, mit der wir NLP- und KI-Ansätze zur Anwendung auf konkreten geschäftskritischen Prozessen entwickeln und einsetzen. Experten gehen auch für die kommenden Jahre von einem anhaltenden Wachstum des weltweiten Marktes für NLP aus: Mit einem durchschnittlichen Wachstum von über 20 Prozent pro Jahr werde der Markt bis 2025 auf geschätzte 6,24 Milliarden US-$ anwachsen. Im Bereich der Forschung ist das Wachstum sogar noch stürmischer: So ist die Zahl der Einreichungen zur ACL-Konferenz, dem vielleicht wichtigsten jährlichen Event in diesem Gebiet, von 2018 bis 2019 um ganze 75 Prozent angestiegen. Im vorliegenden Text wollen wir die Richtung, die wir bei Kairntech mit der Gründung vor einem Jahr eingeschlagen haben, beschreiben sowie von ersten Erfolgen auf diesem Weg berichten.
  20. Melby, A.: Some notes on 'The proper place of men and machines in language translation' (1997) 0.01
    0.007730165 = product of:
      0.04638099 = sum of:
        0.04638099 = product of:
          0.06957148 = sum of:
            0.034942906 = weight(_text_:29 in 330) [ClassicSimilarity], result of:
              0.034942906 = score(doc=330,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.27205724 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
            0.034628574 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.034628574 = score(doc=330,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.2708308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    31. 7.1996 9:22:19
    Source
    Machine translation. 12(1997) nos.1/2, S.29-34

Years

Languages

  • e 76
  • d 46
  • ru 2
  • m 1
  • More… Less…

Types

  • a 103
  • el 16
  • m 12
  • s 6
  • x 4
  • p 2
  • d 1
  • More… Less…

Classifications