Search (107 results, page 1 of 6)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"a"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.43
    0.43045452 = product of:
      0.86090904 = sum of:
        0.03420295 = product of:
          0.10260884 = sum of:
            0.10260884 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.10260884 = score(doc=562,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10260884 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10260884 = score(doc=562,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0058353315 = product of:
          0.017505994 = sum of:
            0.017505994 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.017505994 = score(doc=562,freq=2.0), product of:
                0.07541114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021534784 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.5 = coord(10/20)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.38
    0.38478315 = product of:
      0.8550737 = sum of:
        0.03420295 = product of:
          0.10260884 = sum of:
            0.10260884 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.10260884 = score(doc=862,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10260884 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10260884 = score(doc=862,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.45 = coord(9/20)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.0066456567 = product of:
      0.066456564 = sum of:
        0.060568262 = weight(_text_:zukunft in 881) [ClassicSimilarity], result of:
          0.060568262 = score(doc=881,freq=6.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.5682779 = fieldWeight in 881, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.0058883014 = product of:
          0.017664904 = sum of:
            0.017664904 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
              0.017664904 = score(doc=881,freq=2.0), product of:
                0.07575264 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021534784 = queryNorm
                0.23319192 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
    Date
    28. 1.2022 11:05:29
  4. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.01
    0.0061255256 = product of:
      0.061255254 = sum of:
        0.04425719 = weight(_text_:wissen in 925) [ClassicSimilarity], result of:
          0.04425719 = score(doc=925,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.47651234 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
        0.016998062 = product of:
          0.050994184 = sum of:
            0.050994184 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.050994184 = score(doc=925,freq=6.0), product of:
                0.07575264 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021534784 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
    Source
    https://www.tagesschau.de/wissen/technologie/ki-chatgpt-uni-wissenschaft-101.html
  5. Zimmermann, H.H.: Linguistisch-technische Aspekte der maschinellen Übersetzung (1990) 0.00
    0.004843444 = product of:
      0.09686888 = sum of:
        0.09686888 = weight(_text_:handbuch in 614) [ClassicSimilarity], result of:
          0.09686888 = score(doc=614,freq=2.0), product of:
            0.12543516 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.021534784 = queryNorm
            0.7722626 = fieldWeight in 614, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.09375 = fieldNorm(doc=614)
      0.05 = coord(1/20)
    
    Source
    Grundlagen der praktischen Information und Dokumentation: ein Handbuch zur Einführung in die fachliche Informationsarbeit. 3. Aufl. Hrsg.: M. Buder u.a. Bd.1
  6. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.00
    0.0042412444 = product of:
      0.08482489 = sum of:
        0.08482489 = weight(_text_:informationsvermittlung in 5882) [ClassicSimilarity], result of:
          0.08482489 = score(doc=5882,freq=4.0), product of:
            0.13958742 = queryWeight, product of:
              6.481951 = idf(docFreq=183, maxDocs=44218)
              0.021534784 = queryNorm
            0.60768294 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.481951 = idf(docFreq=183, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.05 = coord(1/20)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
  7. Hahn, U.: Methodische Grundlagen der Informationslinguistik (2013) 0.00
    0.0040362035 = product of:
      0.08072407 = sum of:
        0.08072407 = weight(_text_:handbuch in 719) [ClassicSimilarity], result of:
          0.08072407 = score(doc=719,freq=2.0), product of:
            0.12543516 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.021534784 = queryNorm
            0.6435522 = fieldWeight in 719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
      0.05 = coord(1/20)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  8. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.00
    0.0037849718 = product of:
      0.037849717 = sum of:
        0.030980034 = weight(_text_:wissen in 3510) [ClassicSimilarity], result of:
          0.030980034 = score(doc=3510,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.33355865 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.0068696844 = product of:
          0.020609053 = sum of:
            0.020609053 = weight(_text_:29 in 3510) [ClassicSimilarity], result of:
              0.020609053 = score(doc=3510,freq=2.0), product of:
                0.07575264 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021534784 = queryNorm
                0.27205724 = fieldWeight in 3510, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3510)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  9. Schneider, R.U.: Darf der Computer die Seminararbeit schreiben? (2023) 0.00
    0.0034969102 = product of:
      0.069938205 = sum of:
        0.069938205 = weight(_text_:zukunft in 1168) [ClassicSimilarity], result of:
          0.069938205 = score(doc=1168,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.65619075 = fieldWeight in 1168, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.09375 = fieldNorm(doc=1168)
      0.05 = coord(1/20)
    
    Abstract
    Fast alle Studenten lassen sich bei schriftlichen Arbeiten von künstlicher Intelligenz helfen. Manche halten das für Betrug, andere für die Zukunft der Bildung.
  10. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.00
    0.0034003693 = product of:
      0.034003694 = sum of:
        0.029140918 = weight(_text_:zukunft in 5557) [ClassicSimilarity], result of:
          0.029140918 = score(doc=5557,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.27341282 = fieldWeight in 5557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.0048627765 = product of:
          0.014588329 = sum of:
            0.014588329 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.014588329 = score(doc=5557,freq=2.0), product of:
                0.07541114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021534784 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
  11. Simanowski, R.: Wenn die Dinge anfangen zu sprechen : Chatbot LaMDA von Google (2022) 0.00
    0.0029140918 = product of:
      0.058281835 = sum of:
        0.058281835 = weight(_text_:zukunft in 864) [ClassicSimilarity], result of:
          0.058281835 = score(doc=864,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.54682565 = fieldWeight in 864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.078125 = fieldNorm(doc=864)
      0.05 = coord(1/20)
    
    Abstract
    Dialoge sind in. Dieser Trend hat mit dem Chatbot LaMDA auch Google erreicht. Die Zukunft der Suchanfrage ist das Gespräch, das Gespräch mit dem Objekt der Neugier. Ob das wirklich eine gute Idee ist, fragt sich Medienphilosoph Roberto Simanowski.
  12. Zimmermann, H.H.: Wortrelationierung in der Sprachtechnik : Stilhilfen, Retrievalhilfen, Übersetzungshilfen (1992) 0.00
    0.0026554314 = product of:
      0.05310863 = sum of:
        0.05310863 = weight(_text_:wissen in 1372) [ClassicSimilarity], result of:
          0.05310863 = score(doc=1372,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.57181484 = fieldWeight in 1372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.09375 = fieldNorm(doc=1372)
      0.05 = coord(1/20)
    
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  13. Zimmermann, H.H.: Maschinelle und Computergestützte Übersetzung (2004) 0.00
    0.002421722 = product of:
      0.04843444 = sum of:
        0.04843444 = weight(_text_:handbuch in 2943) [ClassicSimilarity], result of:
          0.04843444 = score(doc=2943,freq=2.0), product of:
            0.12543516 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.021534784 = queryNorm
            0.3861313 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
      0.05 = coord(1/20)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  14. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.00
    0.0023802586 = product of:
      0.023802586 = sum of:
        0.020398643 = weight(_text_:zukunft in 4044) [ClassicSimilarity], result of:
          0.020398643 = score(doc=4044,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.19138898 = fieldWeight in 4044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.0034039435 = product of:
          0.01021183 = sum of:
            0.01021183 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.01021183 = score(doc=4044,freq=2.0), product of:
                0.07541114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021534784 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Date
    3. 5.1997 8:44:22
  15. Schneider, R.: Question answering : das Retrieval der Zukunft? (2007) 0.00
    0.0023312734 = product of:
      0.04662547 = sum of:
        0.04662547 = weight(_text_:zukunft in 5953) [ClassicSimilarity], result of:
          0.04662547 = score(doc=5953,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.4374605 = fieldWeight in 5953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
      0.05 = coord(1/20)
    
  16. Luckhardt, H.-D.: Klassifikationen und Thesauri für automatische Terminologie-Unterstützung, maschinelle Übersetzung und computergestützte Übersetzung (1992) 0.00
    0.0022128595 = product of:
      0.04425719 = sum of:
        0.04425719 = weight(_text_:wissen in 1371) [ClassicSimilarity], result of:
          0.04425719 = score(doc=1371,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.47651234 = fieldWeight in 1371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.078125 = fieldNorm(doc=1371)
      0.05 = coord(1/20)
    
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  17. Wolfangel, E.: Ich verstehe (2017) 0.00
    0.0022128595 = product of:
      0.04425719 = sum of:
        0.04425719 = weight(_text_:wissen in 3976) [ClassicSimilarity], result of:
          0.04425719 = score(doc=3976,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.47651234 = fieldWeight in 3976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.078125 = fieldNorm(doc=3976)
      0.05 = coord(1/20)
    
    Series
    Wissen: Technik, Forschung, Umwelt, Mensch
  18. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.0021593098 = product of:
      0.021593098 = sum of:
        0.017702876 = weight(_text_:wissen in 4217) [ClassicSimilarity], result of:
          0.017702876 = score(doc=4217,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.19060494 = fieldWeight in 4217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.003890221 = product of:
          0.011670663 = sum of:
            0.011670663 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.011670663 = score(doc=4217,freq=2.0), product of:
                0.07541114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021534784 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  19. Egger, W.: Helferlein für jedermann : Elektronische Wörterbücher (2004) 0.00
    0.0020051831 = product of:
      0.040103663 = sum of:
        0.040103663 = weight(_text_:bibliothek in 1501) [ClassicSimilarity], result of:
          0.040103663 = score(doc=1501,freq=2.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.4536013 = fieldWeight in 1501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.078125 = fieldNorm(doc=1501)
      0.05 = coord(1/20)
    
    Object
    PC-Bibliothek
  20. Becks, D.; Schulz, J.M.: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente (2010) 0.00
    0.0017702876 = product of:
      0.03540575 = sum of:
        0.03540575 = weight(_text_:wissen in 4661) [ClassicSimilarity], result of:
          0.03540575 = score(doc=4661,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.38120988 = fieldWeight in 4661, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0625 = fieldNorm(doc=4661)
      0.05 = coord(1/20)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker

Years

Languages

  • e 65
  • d 39
  • ru 2
  • More… Less…

Types