Search (326 results, page 1 of 17)

  • × theme_ss:"Computerlinguistik"
  1. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.21
    0.21044615 = product of:
      0.4208923 = sum of:
        0.10650208 = weight(_text_:grenzen in 1044) [ClassicSimilarity], result of:
          0.10650208 = score(doc=1044,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.64200693 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.031477075 = weight(_text_:der in 1044) [ClassicSimilarity], result of:
          0.031477075 = score(doc=1044,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4935974 = fieldWeight in 1044, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.07028181 = weight(_text_:wissenschaft in 1044) [ClassicSimilarity], result of:
          0.07028181 = score(doc=1044,freq=4.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.62021124 = fieldWeight in 1044, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.10650208 = weight(_text_:grenzen in 1044) [ClassicSimilarity], result of:
          0.10650208 = score(doc=1044,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.64200693 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.031477075 = weight(_text_:der in 1044) [ClassicSimilarity], result of:
          0.031477075 = score(doc=1044,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4935974 = fieldWeight in 1044, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.07465219 = weight(_text_:forschung in 1044) [ClassicSimilarity], result of:
          0.07465219 = score(doc=1044,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.5375043 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
      0.5 = coord(6/12)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.18
    0.18330446 = product of:
      0.4399307 = sum of:
        0.027205575 = product of:
          0.13602787 = sum of:
            0.13602787 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.13602787 = score(doc=562,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.13602787 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13602787 = score(doc=562,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.13602787 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13602787 = score(doc=562,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.13602787 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13602787 = score(doc=562,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.023207584 = score(doc=562,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012) 0.16
    0.16012289 = product of:
      0.32024577 = sum of:
        0.08520166 = weight(_text_:grenzen in 555) [ClassicSimilarity], result of:
          0.08520166 = score(doc=555,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.02518166 = weight(_text_:der in 555) [ClassicSimilarity], result of:
          0.02518166 = score(doc=555,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3948779 = fieldWeight in 555, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.039757397 = weight(_text_:wissenschaft in 555) [ClassicSimilarity], result of:
          0.039757397 = score(doc=555,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.35084447 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.08520166 = weight(_text_:grenzen in 555) [ClassicSimilarity], result of:
          0.08520166 = score(doc=555,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.02518166 = weight(_text_:der in 555) [ClassicSimilarity], result of:
          0.02518166 = score(doc=555,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3948779 = fieldWeight in 555, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.059721746 = weight(_text_:forschung in 555) [ClassicSimilarity], result of:
          0.059721746 = score(doc=555,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.43000343 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
      0.5 = coord(6/12)
    
    Abstract
    In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.5, S.292-296
  4. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.15
    0.1450964 = product of:
      0.4352892 = sum of:
        0.027205575 = product of:
          0.13602787 = sum of:
            0.13602787 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.13602787 = score(doc=862,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.2 = coord(1/5)
        0.13602787 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13602787 = score(doc=862,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.13602787 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13602787 = score(doc=862,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.13602787 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13602787 = score(doc=862,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.33333334 = coord(4/12)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  5. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.14
    0.13757505 = product of:
      0.41272512 = sum of:
        0.13602787 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13602787 = score(doc=563,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13602787 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13602787 = score(doc=563,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13602787 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13602787 = score(doc=563,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.023207584 = score(doc=563,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  6. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.08
    0.0787928 = product of:
      0.18910272 = sum of:
        0.06390124 = weight(_text_:grenzen in 1746) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1746,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028329367 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1746,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.06390124 = weight(_text_:grenzen in 1746) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1746,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028329367 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1746,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.023207584 = score(doc=1746,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  7. Weingarten, R.: ¬Die Verkabelung der Sprache : Grenzen der Technisierung von Kommunikation (1989) 0.06
    0.06439027 = product of:
      0.19317082 = sum of:
        0.07455145 = weight(_text_:grenzen in 7156) [ClassicSimilarity], result of:
          0.07455145 = score(doc=7156,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.44940484 = fieldWeight in 7156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
        0.022033952 = weight(_text_:der in 7156) [ClassicSimilarity], result of:
          0.022033952 = score(doc=7156,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 7156, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
        0.07455145 = weight(_text_:grenzen in 7156) [ClassicSimilarity], result of:
          0.07455145 = score(doc=7156,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.44940484 = fieldWeight in 7156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
        0.022033952 = weight(_text_:der in 7156) [ClassicSimilarity], result of:
          0.022033952 = score(doc=7156,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 7156, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
      0.33333334 = coord(4/12)
    
    Abstract
    Essay über die "Technisierung" der Sprache, von der Schrift als Urform sprachlicher Normierung bis hin zu den jüngsten Technologien.
  8. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.06
    0.06348036 = product of:
      0.19044107 = sum of:
        0.06390124 = weight(_text_:grenzen in 5882) [ClassicSimilarity], result of:
          0.06390124 = score(doc=5882,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.031319294 = weight(_text_:der in 5882) [ClassicSimilarity], result of:
          0.031319294 = score(doc=5882,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4911232 = fieldWeight in 5882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.06390124 = weight(_text_:grenzen in 5882) [ClassicSimilarity], result of:
          0.06390124 = score(doc=5882,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.031319294 = weight(_text_:der in 5882) [ClassicSimilarity], result of:
          0.031319294 = score(doc=5882,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4911232 = fieldWeight in 5882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.33333334 = coord(4/12)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Larroche-Boutet, V.; Pöhl, K.: ¬Das Nominalsyntagna : über die Nutzbarmachung eines logico-semantischen Konzeptes für dokumentarische Fragestellungen (1993) 0.06
    0.063412495 = product of:
      0.15219 = sum of:
        0.05325104 = weight(_text_:grenzen in 5282) [ClassicSimilarity], result of:
          0.05325104 = score(doc=5282,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 5282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.02082013 = weight(_text_:der in 5282) [ClassicSimilarity], result of:
          0.02082013 = score(doc=5282,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.326484 = fieldWeight in 5282, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.05325104 = weight(_text_:grenzen in 5282) [ClassicSimilarity], result of:
          0.05325104 = score(doc=5282,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 5282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.02082013 = weight(_text_:der in 5282) [ClassicSimilarity], result of:
          0.02082013 = score(doc=5282,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.326484 = fieldWeight in 5282, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.0040476574 = product of:
          0.020238286 = sum of:
            0.020238286 = weight(_text_:28 in 5282) [ClassicSimilarity], result of:
              0.020238286 = score(doc=5282,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.19789396 = fieldWeight in 5282, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5282)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Am Anfang nachfolgender Ausführungen werden die für die Indexierung großer textmengen notwendigen strategischen Entscheidungen aufgezeigt: es müssen sowohl das Indexierungsverfahren (menschliche oder automatische Indexierung) als auch die Indexierungssparche (freie, kontrollierte oder natürliche Sprache) ausgewählt werden. Hierbei hat sich die Forschungsgruppe SYDO-LYON für natürlichsprachige automatische Vollindexierung entschieden. Auf der Grundlage der Unterscheidung zwischen prädikativen und referentiellen Textteilen wird d as Nominalsyntagma als kleinste referentielle Texteinheit definiert, dann das für die Konstituierung eines Nominalsyntagmas entscheidende Phänomen der Aktualisierung erläutert und schließlich auf die morphologischen Mittel zur Erkennung des Nominalsyntagmas hingewiesen. Alle Nominalsyntagma eines Textes werden als dessen potentielle Deskriptoren extrahiert, und Hilfsmittel für die Benutzer einer mit diesem Indexierungsverfahren arbeitenden Datenbank werden vorgestellt. Außerdem wird der begriff der Anapher (d.h. die Wiederaufnahme von Nominalsyntagmen durch Pronomen) kurz definiert, ihre Anwendung als Mittel zur Gewichtung des Deskriptorterme (durch Zählung ihrer Häufigkeit im text) aufgezeigt und morphologische uns syntaktische Regeln zur automatischen Bestimmung des von einem anaphorischen Pronomen aufgenommenen Nominalsyntagmas aufgestellt. Bevor abschließend Ziele und Grenzen der Arbeit diskutiert werden, wird noch auf einen Unterschied zwischen Nominalsyntagma und Deskriptorterm hingewiesen: das Nonimalsyntagma verweist auf ein Objekt, das ein Einzelobjekt oder eine Klasse sein kann, der Deskriptorterm verweist immer auf eine Klasse
    Date
    8.10.2000 14:28:09
  10. Schwarz, C.: Freitextrecherche: Grenzen und Möglichkeiten (1982) 0.06
    0.056801107 = product of:
      0.34080663 = sum of:
        0.17040332 = weight(_text_:grenzen in 1349) [ClassicSimilarity], result of:
          0.17040332 = score(doc=1349,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            1.0272111 = fieldWeight in 1349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.125 = fieldNorm(doc=1349)
        0.17040332 = weight(_text_:grenzen in 1349) [ClassicSimilarity], result of:
          0.17040332 = score(doc=1349,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            1.0272111 = fieldWeight in 1349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.125 = fieldNorm(doc=1349)
      0.16666667 = coord(2/12)
    
  11. Abbe: Hoffnungen auf Verbesserung polizeilicher Texte durch Chatbot GPT : eine Statusaufnahme (2023) 0.05
    0.054087907 = product of:
      0.16226372 = sum of:
        0.017806122 = weight(_text_:der in 865) [ClassicSimilarity], result of:
          0.017806122 = score(doc=865,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27922085 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.017806122 = weight(_text_:der in 865) [ClassicSimilarity], result of:
          0.017806122 = score(doc=865,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27922085 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.12017522 = weight(_text_:fortschritt in 865) [ClassicSimilarity], result of:
          0.12017522 = score(doc=865,freq=2.0), product of:
            0.19701613 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.028548526 = queryNorm
            0.60997653 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.006476251 = product of:
          0.032381255 = sum of:
            0.032381255 = weight(_text_:28 in 865) [ClassicSimilarity], result of:
              0.032381255 = score(doc=865,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.31663033 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=865)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Die Hoffnungen an den Einsatz von künstlicher Intelligenz sind hoch, auch in der polizeilichen Informationstechnik. Geradezu einen Hype ausgelöst hat die Veröffentlichung des Chatbots GPT vor wenigen Wochen. Der verspricht eine Beantwortung von Fragen und die Erstellung von Texten quasi wie ein Mensch. Das wäre ein immenser Fortschritt für die vielen Texte in polizeilichen Informations­systemen. Wie belastbar diese Hoffnungen sind, habe ich mir in einem Test mit Fragen und Textaufgaben näher angesehen.
    Date
    5. 1.2023 12:28:38
  12. Erbach, G.: Sprachdialogsysteme für Telefondienste : Stand der Technik und zukünftige Entwicklungen (2000) 0.05
    0.052090567 = product of:
      0.1562717 = sum of:
        0.05325104 = weight(_text_:grenzen in 5556) [ClassicSimilarity], result of:
          0.05325104 = score(doc=5556,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 5556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.024884813 = weight(_text_:der in 5556) [ClassicSimilarity], result of:
          0.024884813 = score(doc=5556,freq=20.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.390223 = fieldWeight in 5556, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.05325104 = weight(_text_:grenzen in 5556) [ClassicSimilarity], result of:
          0.05325104 = score(doc=5556,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 5556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
        0.024884813 = weight(_text_:der in 5556) [ClassicSimilarity], result of:
          0.024884813 = score(doc=5556,freq=20.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.390223 = fieldWeight in 5556, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
      0.33333334 = coord(4/12)
    
    Abstract
    Trotz des ungebrernsten Wachstums des Internet wird das Telefon auch weiterhin eines der wichtigsten Medien für die Kommunikation zwischen Unternehmen und ihren Kunden bleiben. Die Bedeutung der gesprochenen Sprache wird durch die rasante Verbreitung von Mobiltelefonen noch verstärkt. Fast alle großen Unternehmen betreiben oder beauftragen Call Centers, um ihren Kunden telefonisch zu Diensten zu stehen. Oft sind Call Centers mit sogenannten IVR-Systemen (Interactive Voice Response) ausgestattet, die dem Benutzer eine eingeschränkte Menüauswahl über die Telefontasten oder eine rudimentäre Spracheingabe bieten. Diese Art der Eingabe wird aber bei mehr als fünf Wahlmöglichkeiten als lästig empfunden. Hier bietet sich ein großes Potenzial für automatische Spracherkennung und Sprachdialogsysteme. In diesem Artikel werden die technischen Grundlagen sowie die derzeitigen Möglichkeiten und Grenzen der automatischen Spracherkennungstechnologie dargestellt. Wir berichten über Erfahrungen mit einem System für telefonische Posttarifauskünfte, das am Forschungszentrum Telekommunikation Wien (FTW) in Zusammenarbeit mit Philips Speech Processing und der Österreichischen Post AG realisiert und erprobt wurde. Der Stand der Technik in Sprachausgabe und Sprechererkennung wird kurz dargestellt. Zum Abschluss wird ein Ausblick auf die Rolle von Sprachdialogen in zukünftigen mobilen Multirnedia-Anwendungen gegeben
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  13. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.05
    0.04877729 = product of:
      0.1170655 = sum of:
        0.018886246 = weight(_text_:der in 5629) [ClassicSimilarity], result of:
          0.018886246 = score(doc=5629,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 5629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.029818047 = weight(_text_:wissenschaft in 5629) [ClassicSimilarity], result of:
          0.029818047 = score(doc=5629,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.26313335 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.018886246 = weight(_text_:der in 5629) [ClassicSimilarity], result of:
          0.018886246 = score(doc=5629,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 5629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.04479131 = weight(_text_:forschung in 5629) [ClassicSimilarity], result of:
          0.04479131 = score(doc=5629,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.32250258 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.00468365 = product of:
          0.02341825 = sum of:
            0.02341825 = weight(_text_:29 in 5629) [ClassicSimilarity], result of:
              0.02341825 = score(doc=5629,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23319192 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
    Date
    29. 1.1997 18:49:05
  14. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023) 0.05
    0.048567217 = product of:
      0.14570165 = sum of:
        0.031477075 = weight(_text_:der in 1051) [ClassicSimilarity], result of:
          0.031477075 = score(doc=1051,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4935974 = fieldWeight in 1051, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
        0.031477075 = weight(_text_:der in 1051) [ClassicSimilarity], result of:
          0.031477075 = score(doc=1051,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4935974 = fieldWeight in 1051, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
        0.07465219 = weight(_text_:forschung in 1051) [ClassicSimilarity], result of:
          0.07465219 = score(doc=1051,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.5375043 = fieldWeight in 1051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
        0.008095315 = product of:
          0.04047657 = sum of:
            0.04047657 = weight(_text_:28 in 1051) [ClassicSimilarity], result of:
              0.04047657 = score(doc=1051,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.39578792 = fieldWeight in 1051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1051)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
    Content
    Wiederabdruck des Beitrags aus: Forschung & Lehre vom 20.12.2022. Vgl.: DOI 10.1515/dmvm-2023-0007.
    Date
    28. 2.2020 15:06:34
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.17-19
  15. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.05
    0.047231507 = product of:
      0.14169452 = sum of:
        0.05325104 = weight(_text_:grenzen in 128) [ClassicSimilarity], result of:
          0.05325104 = score(doc=128,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.01759622 = weight(_text_:der in 128) [ClassicSimilarity], result of:
          0.01759622 = score(doc=128,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27592933 = fieldWeight in 128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.05325104 = weight(_text_:grenzen in 128) [ClassicSimilarity], result of:
          0.05325104 = score(doc=128,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.01759622 = weight(_text_:der in 128) [ClassicSimilarity], result of:
          0.01759622 = score(doc=128,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27592933 = fieldWeight in 128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.33333334 = coord(4/12)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  16. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.05
    0.04554605 = product of:
      0.13663815 = sum of:
        0.018886246 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.018886246 = score(doc=4888,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.018886246 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.018886246 = score(doc=4888,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.08958262 = weight(_text_:forschung in 4888) [ClassicSimilarity], result of:
          0.08958262 = score(doc=4888,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.64500517 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.009283034 = product of:
          0.04641517 = sum of:
            0.04641517 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.04641517 = score(doc=4888,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  17. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.05
    0.045307428 = product of:
      0.13592228 = sum of:
        0.013354592 = weight(_text_:der in 881) [ClassicSimilarity], result of:
          0.013354592 = score(doc=881,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.20941564 = fieldWeight in 881, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.013354592 = weight(_text_:der in 881) [ClassicSimilarity], result of:
          0.013354592 = score(doc=881,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.20941564 = fieldWeight in 881, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.09013142 = weight(_text_:fortschritt in 881) [ClassicSimilarity], result of:
          0.09013142 = score(doc=881,freq=2.0), product of:
            0.19701613 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.028548526 = queryNorm
            0.4574824 = fieldWeight in 881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.019081676 = product of:
          0.04770419 = sum of:
            0.02428594 = weight(_text_:28 in 881) [ClassicSimilarity], result of:
              0.02428594 = score(doc=881,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23747274 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
            0.02341825 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
              0.02341825 = score(doc=881,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23319192 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.4 = coord(2/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
    Date
    28. 1.2022 11:05:29
  18. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.05
    0.045030467 = product of:
      0.1350914 = sum of:
        0.017806122 = weight(_text_:der in 4018) [ClassicSimilarity], result of:
          0.017806122 = score(doc=4018,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27922085 = fieldWeight in 4018, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.039757397 = weight(_text_:wissenschaft in 4018) [ClassicSimilarity], result of:
          0.039757397 = score(doc=4018,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.35084447 = fieldWeight in 4018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.017806122 = weight(_text_:der in 4018) [ClassicSimilarity], result of:
          0.017806122 = score(doc=4018,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27922085 = fieldWeight in 4018, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.059721746 = weight(_text_:forschung in 4018) [ClassicSimilarity], result of:
          0.059721746 = score(doc=4018,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.43000343 = fieldWeight in 4018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.33333334 = coord(4/12)
    
    Abstract
    Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366
  19. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.04
    0.03942544 = product of:
      0.09462106 = sum of:
        0.02087953 = weight(_text_:der in 877) [ClassicSimilarity], result of:
          0.02087953 = score(doc=877,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32741547 = fieldWeight in 877, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.019878699 = weight(_text_:wissenschaft in 877) [ClassicSimilarity], result of:
          0.019878699 = score(doc=877,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.17542224 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.02087953 = weight(_text_:der in 877) [ClassicSimilarity], result of:
          0.02087953 = score(doc=877,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.32741547 = fieldWeight in 877, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.029860873 = weight(_text_:forschung in 877) [ClassicSimilarity], result of:
          0.029860873 = score(doc=877,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.21500172 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.0031224333 = product of:
          0.015612166 = sum of:
            0.015612166 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.015612166 = score(doc=877,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
    Source
    https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
  20. Geißler, S.: Natürliche Sprachverarbeitung und Künstliche Intelligenz : ein wachsender Markt mit vielen Chancen. Das Beispiel Kairntech (2020) 0.04
    0.03646336 = product of:
      0.10939008 = sum of:
        0.023607805 = weight(_text_:der in 5924) [ClassicSimilarity], result of:
          0.023607805 = score(doc=5924,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.37019804 = fieldWeight in 5924, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.024848374 = weight(_text_:wissenschaft in 5924) [ClassicSimilarity], result of:
          0.024848374 = score(doc=5924,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.2192778 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.023607805 = weight(_text_:der in 5924) [ClassicSimilarity], result of:
          0.023607805 = score(doc=5924,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.37019804 = fieldWeight in 5924, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.037326094 = weight(_text_:forschung in 5924) [ClassicSimilarity], result of:
          0.037326094 = score(doc=5924,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.26875216 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
      0.33333334 = coord(4/12)
    
    Abstract
    Vor rund einem Jahr haben wir an dieser Stelle die aufregende Dynamik auf den Gebieten der Natürlichen Sprachverarbeitung (NLP) und der Künstlichen Intelligenz (KI) beschrieben: Seit einigen Jahren sorgen Fortschritte in den algorithmischen Grundlagen, in der einsetzbaren Rechenleistung sowie in der Verfügbarkeit von großen Datenmengen für immer leistungsfähigere Systeme. NLP-Anwendungen seien damit mehr denn je reif für den praktischen Einsatz, hatten wir argumentiert. Diese Entwicklung verfolgen wir bei Kairntech nicht allein als interessierte Beobachter, sondern sie stellt die Grundlage unserer Arbeit dar, mit der wir NLP- und KI-Ansätze zur Anwendung auf konkreten geschäftskritischen Prozessen entwickeln und einsetzen. Experten gehen auch für die kommenden Jahre von einem anhaltenden Wachstum des weltweiten Marktes für NLP aus: Mit einem durchschnittlichen Wachstum von über 20 Prozent pro Jahr werde der Markt bis 2025 auf geschätzte 6,24 Milliarden US-$ anwachsen. Im Bereich der Forschung ist das Wachstum sogar noch stürmischer: So ist die Zahl der Einreichungen zur ACL-Konferenz, dem vielleicht wichtigsten jährlichen Event in diesem Gebiet, von 2018 bis 2019 um ganze 75 Prozent angestiegen. Im vorliegenden Text wollen wir die Richtung, die wir bei Kairntech mit der Gründung vor einem Jahr eingeschlagen haben, beschreiben sowie von ersten Erfolgen auf diesem Weg berichten.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106

Years

Languages

Types

  • a 243
  • m 46
  • el 43
  • s 17
  • x 13
  • d 2
  • p 2
  • b 1
  • More… Less…

Subjects

Classifications