Search (195 results, page 1 of 10)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.18
    0.1768898 = product of:
      0.23585308 = sum of:
        0.05655123 = product of:
          0.16965368 = sum of:
            0.16965368 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16965368 = score(doc=562,freq=2.0), product of:
                0.3018652 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03560566 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16965368 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16965368 = score(doc=562,freq=2.0), product of:
            0.3018652 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03560566 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.009648152 = product of:
          0.028944453 = sum of:
            0.028944453 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.028944453 = score(doc=562,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.11
    0.11310246 = product of:
      0.22620492 = sum of:
        0.05655123 = product of:
          0.16965368 = sum of:
            0.16965368 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.16965368 = score(doc=862,freq=2.0), product of:
                0.3018652 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03560566 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.16965368 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16965368 = score(doc=862,freq=2.0), product of:
            0.3018652 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03560566 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(2/4)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.09
    0.089650914 = product of:
      0.17930183 = sum of:
        0.16965368 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16965368 = score(doc=563,freq=2.0), product of:
            0.3018652 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03560566 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009648152 = product of:
          0.028944453 = sum of:
            0.028944453 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.028944453 = score(doc=563,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.02
    0.024801802 = product of:
      0.049603604 = sum of:
        0.01747733 = product of:
          0.052431986 = sum of:
            0.052431986 = weight(_text_:eine in 4251) [ClassicSimilarity], result of:
              0.052431986 = score(doc=4251,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.4772601 = fieldWeight in 4251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
        0.032126274 = product of:
          0.09637882 = sum of:
            0.09637882 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.09637882 = score(doc=4251,freq=4.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    29. 1.2011 14:56:29
    Footnote
    Enthält eine Darstellung des Kuhlen-Stemmers
  5. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.02
    0.02029422 = product of:
      0.04058844 = sum of:
        0.012483807 = product of:
          0.03745142 = sum of:
            0.03745142 = weight(_text_:eine in 925) [ClassicSimilarity], result of:
              0.03745142 = score(doc=925,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.3409001 = fieldWeight in 925, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
        0.028104633 = product of:
          0.0843139 = sum of:
            0.0843139 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.0843139 = score(doc=925,freq=6.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Mit KI lassen sich in kurzer Zeit Texte erzeugen. Ob Studierende die Programme einsetzen dürfen, ist nicht einheitlich geregelt. Oft hängt die Entscheidung am Lehrpersonal, wie eine BR-Umfrage zeigt.
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  6. Rieger, F.: Lügende Computer (2023) 0.01
    0.011425624 = product of:
      0.022851247 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 912) [ClassicSimilarity], result of:
              0.029961135 = score(doc=912,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.33333334 = coord(1/3)
        0.012864201 = product of:
          0.038592603 = sum of:
            0.038592603 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.038592603 = score(doc=912,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Wir leben gerade in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen "AI"-Systemen, die driften, halluzinieren, lügen und fabulieren können. Schon heute ist die Komplexität moderner Softwaresysteme so hoch, dass es kühn wäre, von striktem Determinismus zu sprechen, jedoch sind auch komplexe Algorithmen darauf angelegt, bei gleichen Eingabedaten gleiche Ergebnisse zu produzieren. Eine Ausnahme sind heute schon Algorithmen, die Zufallszahlen als Teil ihrer Eingabeparameter beinhalten oder neuronale Netze.
    Date
    16. 3.2023 19:22:55
  7. Melby, A.: Some notes on 'The proper place of men and machines in language translation' (1997) 0.01
    0.011307265 = product of:
      0.04522906 = sum of:
        0.04522906 = product of:
          0.067843586 = sum of:
            0.034075055 = weight(_text_:29 in 330) [ClassicSimilarity], result of:
              0.034075055 = score(doc=330,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27205724 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
            0.033768527 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.033768527 = score(doc=330,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.2708308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
    Source
    Machine translation. 12(1997) nos.1/2, S.29-34
  8. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.01
    0.010150527 = product of:
      0.020301053 = sum of:
        0.008827385 = product of:
          0.026482154 = sum of:
            0.026482154 = weight(_text_:eine in 566) [ClassicSimilarity], result of:
              0.026482154 = score(doc=566,freq=4.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.24105278 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
        0.011473669 = product of:
          0.034421004 = sum of:
            0.034421004 = weight(_text_:29 in 566) [ClassicSimilarity], result of:
              0.034421004 = score(doc=566,freq=4.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.2748193 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Date
    25.10.2007 9:51:29
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  9. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.00999742 = product of:
      0.01999484 = sum of:
        0.008738665 = product of:
          0.026215993 = sum of:
            0.026215993 = weight(_text_:eine in 4184) [ClassicSimilarity], result of:
              0.026215993 = score(doc=4184,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23863006 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.33333334 = coord(1/3)
        0.011256176 = product of:
          0.033768527 = sum of:
            0.033768527 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.033768527 = score(doc=4184,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
  10. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.01
    0.009741782 = product of:
      0.03896713 = sum of:
        0.03896713 = product of:
          0.05845069 = sum of:
            0.024339326 = weight(_text_:29 in 2541) [ClassicSimilarity], result of:
              0.024339326 = score(doc=2541,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.19432661 = fieldWeight in 2541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
            0.034111366 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
              0.034111366 = score(doc=2541,freq=4.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27358043 = fieldWeight in 2541, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  11. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.01
    0.009425711 = product of:
      0.018851422 = sum of:
        0.010811294 = product of:
          0.032433882 = sum of:
            0.032433882 = weight(_text_:eine in 5557) [ClassicSimilarity], result of:
              0.032433882 = score(doc=5557,freq=6.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.29522815 = fieldWeight in 5557, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.33333334 = coord(1/3)
        0.008040126 = product of:
          0.02412038 = sum of:
            0.02412038 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.02412038 = score(doc=5557,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  12. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.01
    0.008613007 = product of:
      0.017226014 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 5629) [ClassicSimilarity], result of:
              0.02247085 = score(doc=5629,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
        0.0097357305 = product of:
          0.02920719 = sum of:
            0.02920719 = weight(_text_:29 in 5629) [ClassicSimilarity], result of:
              0.02920719 = score(doc=5629,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23319192 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
    Date
    29. 1.1997 18:49:05
  13. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.01
    0.008613007 = product of:
      0.017226014 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 3547) [ClassicSimilarity], result of:
              0.02247085 = score(doc=3547,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 3547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3547)
          0.33333334 = coord(1/3)
        0.0097357305 = product of:
          0.02920719 = sum of:
            0.02920719 = weight(_text_:29 in 3547) [ClassicSimilarity], result of:
              0.02920719 = score(doc=3547,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23319192 = fieldWeight in 3547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3547)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Anwendungen von maschinellen Lernverfahren (ML) haben in jüngster Zeit aufsehenerregende Durchbrüche bei einer ganzen Reihe von Aufgaben in der maschinellen Sprachverarbeitung (NLP) erzielt. Der Fokus vieler Arbeiten liegt hierbei in der Entwicklung immer besserer Modelle, während der Anteil der Aufgaben in praktischen Projekten, der sich nicht mit Modellbildung, sondern mit Themen wie Datenbereitstellung sowie Evaluierung, Wartung und Deployment von Modellen beschäftigt, oftmals noch nicht ausreichend Beachtung erfährt. Im Ergebnis fehlen gerade Unternehmen, die nicht die Möglichkeit haben, eigene Plattformen für den Einsatz von ML und NLP zu entwerfen, oft geeignete Werkzeuge und Best Practices. Es ist zeichnet sich ab, dass in den kommenden Monaten eine gerade diesen praktischen Fragen zugewandte Ingenieurssicht auf ML und ihren Einsatz im Unternehmen an Bedeutung gewinnen wird.
    Date
    2. 9.2019 19:29:24
  14. Thomas, I.S.; Wang, J.; GPT-3: Was euch zu Menschen macht : Antworten einer künstlichen Intelligenz auf die großen Fragen des Lebens (2022) 0.01
    0.008613007 = product of:
      0.017226014 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 878) [ClassicSimilarity], result of:
              0.02247085 = score(doc=878,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=878)
          0.33333334 = coord(1/3)
        0.0097357305 = product of:
          0.02920719 = sum of:
            0.02920719 = weight(_text_:29 in 878) [ClassicSimilarity], result of:
              0.02920719 = score(doc=878,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23319192 = fieldWeight in 878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=878)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Das erste durch KI verfasste Weisheitsbuch. »Die Künstliche Intelligenz sieht den Menschen, wie er ist. Es gibt für sie keinen Gott, keine Rituale, keinen Himmel, keine Hölle, keine Engel. Es gibt für sie nur empfindsame Wesen.« GPT-3. Dieses Buch enthält Weisheitstexte, die durch die modernste KI im Bereich der Spracherkennung verfasst wurden. Es ist die GPT-3, die durch die Technikerin Jasmine Wang gesteuert wird. Die originären Texte von GPT-3 werden von dem international bekannten Dichter Iain S. Thomas kuratiert. Die Basis von GPT-3 reicht von den Weisheitsbücher der Menschheit bis hin zu modernen Texten. GPT-3 antwortet auf Fragen wie: Was macht den Mensch zum Menschen? Was bedeutet es zu lieben? Wie führen wir ein erfülltes Leben? etc. und ist in der Lage, eigene Sätze zu kreieren. So wird eine zeitgenössische und noch nie dagewesene Erforschung von Sinn und Spiritualität geschaffen, die zu einem neuen Verständnis dessen inspiriert, was uns zu Menschen macht.
    Date
    7. 1.2023 18:41:29
  15. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.008613007 = product of:
      0.017226014 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 881) [ClassicSimilarity], result of:
              0.02247085 = score(doc=881,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.33333334 = coord(1/3)
        0.0097357305 = product of:
          0.02920719 = sum of:
            0.02920719 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
              0.02920719 = score(doc=881,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23319192 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    28. 1.2022 11:05:29
  16. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.008569218 = product of:
      0.017138436 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 1746) [ClassicSimilarity], result of:
              0.02247085 = score(doc=1746,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
        0.009648152 = product of:
          0.028944453 = sum of:
            0.028944453 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.028944453 = score(doc=1746,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  17. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.01
    0.007569762 = product of:
      0.015139524 = sum of:
        0.008649036 = product of:
          0.025947107 = sum of:
            0.025947107 = weight(_text_:eine in 877) [ClassicSimilarity], result of:
              0.025947107 = score(doc=877,freq=6.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23618253 = fieldWeight in 877, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.33333334 = coord(1/3)
        0.006490487 = product of:
          0.019471461 = sum of:
            0.019471461 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.019471461 = score(doc=877,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
  18. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.01
    0.0075405687 = product of:
      0.015081137 = sum of:
        0.008649036 = product of:
          0.025947107 = sum of:
            0.025947107 = weight(_text_:eine in 4217) [ClassicSimilarity], result of:
              0.025947107 = score(doc=4217,freq=6.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23618253 = fieldWeight in 4217, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
        0.0064321007 = product of:
          0.019296302 = sum of:
            0.019296302 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.019296302 = score(doc=4217,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  19. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.01
    0.0071833767 = product of:
      0.014366753 = sum of:
        0.008738665 = product of:
          0.026215993 = sum of:
            0.026215993 = weight(_text_:eine in 5759) [ClassicSimilarity], result of:
              0.026215993 = score(doc=5759,freq=8.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23863006 = fieldWeight in 5759, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.33333334 = coord(1/3)
        0.005628088 = product of:
          0.016884264 = sum of:
            0.016884264 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.016884264 = score(doc=5759,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Computer müssen lernen, die Sprache des Menschen zu verstehen. Forscher an der Uni Duisburg haben eine Methode entwickelt, mit der ein Rechner Informationen aus Radiobeiträgen herausfiltern kann.
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  20. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.01
    0.007141015 = product of:
      0.01428203 = sum of:
        0.0062419036 = product of:
          0.01872571 = sum of:
            0.01872571 = weight(_text_:eine in 734) [ClassicSimilarity], result of:
              0.01872571 = score(doc=734,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.17045005 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
        0.008040126 = product of:
          0.02412038 = sum of:
            0.02412038 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.02412038 = score(doc=734,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31

Authors

Years

Languages

  • d 111
  • e 80
  • m 2
  • ru 2
  • More… Less…

Types

  • a 151
  • el 32
  • m 23
  • s 7
  • x 7
  • p 2
  • d 1
  • More… Less…

Subjects

Classifications