Search (68 results, page 1 of 4)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.25
    0.24969272 = product of:
      0.37453908 = sum of:
        0.032778047 = product of:
          0.16389023 = sum of:
            0.16389023 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16389023 = score(doc=562,freq=2.0), product of:
                0.29161027 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03439607 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.16389023 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16389023 = score(doc=562,freq=2.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16389023 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16389023 = score(doc=562,freq=2.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.013980578 = product of:
          0.027961155 = sum of:
            0.027961155 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.027961155 = score(doc=562,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.18
    0.18027925 = product of:
      0.3605585 = sum of:
        0.032778047 = product of:
          0.16389023 = sum of:
            0.16389023 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.16389023 = score(doc=862,freq=2.0), product of:
                0.29161027 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03439607 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.2 = coord(1/5)
        0.16389023 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16389023 = score(doc=862,freq=2.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.16389023 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16389023 = score(doc=862,freq=2.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(3/6)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.17
    0.17088051 = product of:
      0.34176102 = sum of:
        0.16389023 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16389023 = score(doc=563,freq=2.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16389023 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16389023 = score(doc=563,freq=2.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.013980578 = product of:
          0.027961155 = sum of:
            0.027961155 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.027961155 = score(doc=563,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.06
    0.060108718 = product of:
      0.120217435 = sum of:
        0.04176114 = weight(_text_:lernen in 5759) [ClassicSimilarity], result of:
          0.04176114 = score(doc=5759,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.21667974 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.07030096 = weight(_text_:hochschule in 5759) [ClassicSimilarity], result of:
          0.07030096 = score(doc=5759,freq=4.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.33432606 = fieldWeight in 5759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.008155338 = product of:
          0.016310675 = sum of:
            0.016310675 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.016310675 = score(doc=5759,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Computer müssen lernen, die Sprache des Menschen zu verstehen. Forscher an der Uni Duisburg haben eine Methode entwickelt, mit der ein Rechner Informationen aus Radiobeiträgen herausfiltern kann.
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  5. Meyer, J.: ¬Die Verwendung hierarchisch strukturierter Sprachnetzwerke zur redundanzarmen Codierung von Texten (1989) 0.03
    0.03314019 = product of:
      0.19884114 = sum of:
        0.19884114 = weight(_text_:hochschule in 2176) [ClassicSimilarity], result of:
          0.19884114 = score(doc=2176,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.9456169 = fieldWeight in 2176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.109375 = fieldNorm(doc=2176)
      0.16666667 = coord(1/6)
    
    Imprint
    Darmstadt : Technische Hochschule
  6. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.02
    0.023769751 = product of:
      0.07130925 = sum of:
        0.05965877 = weight(_text_:lernen in 734) [ClassicSimilarity], result of:
          0.05965877 = score(doc=734,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.30954248 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.011650482 = product of:
          0.023300964 = sum of:
            0.023300964 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.023300964 = score(doc=734,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  7. Informationslinguistische Texterschließung (1986) 0.02
    0.023612669 = product of:
      0.14167601 = sum of:
        0.14167601 = product of:
          0.28335202 = sum of:
            0.28335202 = weight(_text_:aufsatzsammlung in 186) [ClassicSimilarity], result of:
              0.28335202 = score(doc=186,freq=24.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                1.2555718 = fieldWeight in 186, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=186)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Information Retrieval / Aufsatzsammlung (DNB)
    Automatische Sprachanalyse / Morphologie / Aufsatzsammlung (SBB / GBV)
    Automatische Sprachanalyse / Morphologie <Linguistik> / Aufsatzsammlung (DNB)
    Linguistische Datenverarbeitung / Linguistik / Aufsatzsammlung (SWB)
    Linguistik / Information Retrieval / Aufsatzsammlung (SWB / BVB)
    Linguistische Datenverarbeitung / Textanalyse / Aufsatzsammlung (BVB)
    Subject
    Information Retrieval / Aufsatzsammlung (DNB)
    Automatische Sprachanalyse / Morphologie / Aufsatzsammlung (SBB / GBV)
    Automatische Sprachanalyse / Morphologie <Linguistik> / Aufsatzsammlung (DNB)
    Linguistische Datenverarbeitung / Linguistik / Aufsatzsammlung (SWB)
    Linguistik / Information Retrieval / Aufsatzsammlung (SWB / BVB)
    Linguistische Datenverarbeitung / Textanalyse / Aufsatzsammlung (BVB)
  8. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.02
    0.023163158 = product of:
      0.13897894 = sum of:
        0.13897894 = sum of:
          0.115677975 = weight(_text_:aufsatzsammlung in 190) [ClassicSimilarity], result of:
            0.115677975 = score(doc=190,freq=4.0), product of:
              0.22567567 = queryWeight, product of:
                6.5610886 = idf(docFreq=169, maxDocs=44218)
                0.03439607 = queryNorm
              0.51258504 = fieldWeight in 190, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.5610886 = idf(docFreq=169, maxDocs=44218)
                0.0390625 = fieldNorm(doc=190)
          0.023300964 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
            0.023300964 = score(doc=190,freq=2.0), product of:
              0.12044918 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03439607 = queryNorm
              0.19345059 = fieldWeight in 190, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=190)
      0.16666667 = coord(1/6)
    
    Date
    14. 4.2007 10:04:22
    RSWK
    Computer / Anwendung / Computerunterstützte Lexikographie / Aufsatzsammlung
    Subject
    Computer / Anwendung / Computerunterstützte Lexikographie / Aufsatzsammlung
  9. Schönbächler, E.; Strasser, T.; Himpsl-Gutermann, K.: Vom Chat zum Check : Informationskompetenz mit ChatGPT steigern (2023) 0.02
    0.016570095 = product of:
      0.09942057 = sum of:
        0.09942057 = weight(_text_:hochschule in 924) [ClassicSimilarity], result of:
          0.09942057 = score(doc=924,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.47280845 = fieldWeight in 924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0546875 = fieldNorm(doc=924)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag greift den aktuellen Diskurs um die KI-Anwendung ChatGPT und deren Bedeutung in Schule und Hochschule auf. Dabei werden durch einen Überblick über verschiedene Assistenzsysteme, die auf Künstlicher Intelligenz beruhen, Grundlagen und Unterschiede herausgearbeitet. Der Bereich der Chatbots wird näher beleuchtet, die beiden grundlegenden Arten des regelbasierten Chatbots und des Machine Learning Bots werden anhand von anschaulichen Beispielen praxisnah erklärt. Schließlich wird herausgearbeitet, dass Informationskompetenz als Schlüsselkompetenz des 21. Jahrhunderts auch die wesentliche Grundlage dafür ist, im Bildungsbereich konstruktiv mit KI-Systemen wie ChatGPT umzugehen und die wesentlichen Funktionsmechanismen zu verstehen. Ein Unterrichtsentwurf zum Thema "Biene" schließt den Praxisbeitrag ab.
  10. Schröter, F.; Meyer, U.: Entwicklung sprachlicher Handlungskompetenz in Englisch mit Hilfe eines Multimedia-Sprachlernsystems (2000) 0.01
    0.014202939 = product of:
      0.08521763 = sum of:
        0.08521763 = weight(_text_:hochschule in 5567) [ClassicSimilarity], result of:
          0.08521763 = score(doc=5567,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.40526438 = fieldWeight in 5567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=5567)
      0.16666667 = coord(1/6)
    
    Abstract
    Firmen handeln zunehmend global. Daraus ergibt sich für die Mehrzahl der Mitarbeiter solcher Unternehmen die Notwendigkeit, die englische Sprache, die "lingua franca" der weltweiten Geschäftsbeziehungen, zu beherrschen, um sie wirkungsvoll einsetzen zu können - und dies auch unter interkulturellem Aspekt. Durch die Globalisierung ist es unmöglich geworden, ohne Fremdsprachenkenntnisse am freien Markt zu agieren." (Trends in der Personalentwicklung, PEF-Consulting, Wien) Das Erreichen interkultureller Handlungskompetenz in der Fremdsprache ist das Ziel des SprachIernsystems ,Sunpower - Communication Strategies in English for Business Purposes", das am Fachbereich Sprachen der Fachhochschule Köln entstanden und im Frühjahr dieses Jahres auf dem Markt erschienen ist. Das Lernsystem ist in Kooperation des Fachbereichs Sprachen der Fachhochschule Köln mit einer englischen Solarenergie-Firma, einer Management Consulting Agentur und der Sprachenabteilung einer Londoner Hochschule entstanden
  11. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.01
    0.014202939 = product of:
      0.08521763 = sum of:
        0.08521763 = weight(_text_:hochschule in 2849) [ClassicSimilarity], result of:
          0.08521763 = score(doc=2849,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.40526438 = fieldWeight in 2849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
      0.16666667 = coord(1/6)
    
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
  12. Maschinelle Sprachsynthese (1996) 0.01
    0.013920381 = product of:
      0.08352228 = sum of:
        0.08352228 = weight(_text_:lernen in 5872) [ClassicSimilarity], result of:
          0.08352228 = score(doc=5872,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.43335947 = fieldWeight in 5872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5872)
      0.16666667 = coord(1/6)
    
    Abstract
    Kinder lernen es schon auf der Grundschule, aber für einen Computer ist es nach wie vor etwas vom SChwersten: Vorlesen. Es ist nicht nur die Produktion von Lauten durch die menschlichen Sprechorgane ein äußerst komplexer Vorgang, der vereinfachender Modellierung nur schwer zugänglich ist; um einen Satz richtig auszusprechen, muß man auch von seinem Sinn einen erheblichen Teil erfaßt haben. Gleichwohl macht die maschinelle Nachbildung dieses Prozesses Fortschritte, von einer linguistischen Vorverarbeitung des geschriebenen Textes bis hin zu einem marktfähigen Produkt: dem sprechenden Autoradio
  13. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.01
    0.011931754 = product of:
      0.07159052 = sum of:
        0.07159052 = weight(_text_:lernen in 3547) [ClassicSimilarity], result of:
          0.07159052 = score(doc=3547,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.37145096 = fieldWeight in 3547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.046875 = fieldNorm(doc=3547)
      0.16666667 = coord(1/6)
    
  14. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.01
    0.009943129 = product of:
      0.05965877 = sum of:
        0.05965877 = weight(_text_:lernen in 126) [ClassicSimilarity], result of:
          0.05965877 = score(doc=126,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.30954248 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
  15. Multi-source, multilingual information extraction and summarization (2013) 0.01
    0.009639831 = product of:
      0.057838988 = sum of:
        0.057838988 = product of:
          0.115677975 = sum of:
            0.115677975 = weight(_text_:aufsatzsammlung in 978) [ClassicSimilarity], result of:
              0.115677975 = score(doc=978,freq=4.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.51258504 = fieldWeight in 978, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=978)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Natürlichsprachiges System / Information Extraction / Automatische Inhaltsanalyse / Zusammenfassung / Aufsatzsammlung
    Subject
    Natürlichsprachiges System / Information Extraction / Automatische Inhaltsanalyse / Zusammenfassung / Aufsatzsammlung
  16. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.01
    0.0079545025 = product of:
      0.047727015 = sum of:
        0.047727015 = weight(_text_:lernen in 5218) [ClassicSimilarity], result of:
          0.047727015 = score(doc=5218,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.24763398 = fieldWeight in 5218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
      0.16666667 = coord(1/6)
    
    Series
    IT lernen
  17. Kiss, T.: Anmerkungen zur scheinbaren Konkurrenz von numerischen und symbolischen Verfahren in der Computerlinguistik (2002) 0.01
    0.0079545025 = product of:
      0.047727015 = sum of:
        0.047727015 = weight(_text_:lernen in 1752) [ClassicSimilarity], result of:
          0.047727015 = score(doc=1752,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.24763398 = fieldWeight in 1752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
      0.16666667 = coord(1/6)
    
    Abstract
    Man kann wohl abschließend festhalten, dass von einer Überlegenheit statistischer Verfahren zumindest im Bereich des Tagging eigentlich nicht gesprochen werden sollte. Darüber hinaus muss die Opposition zwischen regelbasierten und numerischen Verfahren hier aufgeweicht werden, denn auch die statistischen Verfahren verwenden Regelsysteme. Selbst beim Lernen ohne Referenzkorpus ist ja zumindest eine Zuordnung der Wörter zu einem Lexikon bzw. auch eine heuristische Erkennung unbekannter Wörter nach Regeln notwendig. Statistische Verfahren haben - und dies wurde hier wahrscheinlich nicht ausreichend betont - durchaus ihre Berechtigung, sie sind nützlich; sie gestatten, insbesondere im Vergleich zur Introspektion, eine unmittelbarere und breitere Heranführung an das Phänomen Sprache. Die vorhandenen umfangreichen elektronischen Korpora verlangen nahezu danach, Sprache auch mit statistischen Mitteln zu untersuchen. Allerdings können die statistischen Verfahren die regelbasierten Verfahren nicht ersetzen. Somit muss dem Diktum vom "Es geht nicht anders" deutlich widersprochen werden. Dass die statistischen Verfahren zur Zeit so en vogue sind und die regelbasierten Verfahren aussehen lassen wie eine alte Dallas-Folge, mag wohl auch daran liegen, dass zu viele Vertreter des alten Paradigmas nicht die Energie aufbringen, sich dem neuen Paradigma so weit zu öffnen, dass eine kritische Auseinandersetzung mit dem neuen auf der Basis des alten möglich wird. Die Mathematik ist eine geachtete, weil schwierige Wissenschaft, die statistische Sprachverarbeitung ist eine gefürchtete, weil in ihren Eigenschaften oftmals nicht gründlich genug betrachtete Disziplin.
  18. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2022) 0.01
    0.0079545025 = product of:
      0.047727015 = sum of:
        0.047727015 = weight(_text_:lernen in 929) [ClassicSimilarity], result of:
          0.047727015 = score(doc=929,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.24763398 = fieldWeight in 929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
      0.16666667 = coord(1/6)
    
    Content
    "Seit dem 30. November 2022 ist meine Welt - und die vieler Bildungsexpertinnen und Bildungsexperten - gefühlt eine andere Welt, die uns in eine "Neuzeit" führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen. Der Ableger und Prototyp ChatGPT des derzeit (zumindest in der westlichen Welt) führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30. November veröffentlicht und ist seit dieser Zeit für jeden frei zugänglich und kostenlos. Was zunächst als unspektakuläre Ankündigung von OpenAI anmutete, nämlich das seit 2020 bereits verfügbare KI-Sprachmodell GPT-3 nun in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation bereitzustellen, entpuppt sich in der Anwendung - aus Sicht der Nutzerinnen und Nutzer - als Meilenstein der KI-Entwicklung. Fakt ist, dass die Leistungsvielfalt und -stärke von ChatGPT selbst IT-Expertinnen und -Experten überrascht hat und sie zu einer Fülle von Superlativen in der Bewertung veranlasst, jedoch immer in Kombination mit Hinweisen zur fehlenden Faktentreue und Verlässlichkeit derartiger generativer KI-Modelle. Mit WebGPT von OpenAI steht aber bereits ein Forschungsprototyp bereit, der mit integrierter Internetsuchfunktion die "Halluzinationen" aktueller GPT-Varianten ausmerzen könnte. Für den Bildungssektor stellt sich die Frage, wie sich das Lehren und Lernen an Hochschulen (und nicht nur dort) verändern wird, wenn derartige KI-Werkzeuge omnipräsent sind und mit ihrer Hilfe nicht nur die Hausarbeit "per Knopfdruck" erstellt werden kann. Beeindruckend ist zudem die fachliche Bandbreite von ChatGPT, siehe den Tweet von @davidtsong, der ChatGPT dem Studierfähigkeitstest SAT unterzogen hat."
  19. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.01
    0.007711865 = product of:
      0.04627119 = sum of:
        0.04627119 = product of:
          0.09254238 = sum of:
            0.09254238 = weight(_text_:aufsatzsammlung in 91) [ClassicSimilarity], result of:
              0.09254238 = score(doc=91,freq=16.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.41006804 = fieldWeight in 91, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Information Retrieval / Aufsatzsammlung
    Automatische Indexierung / Aufsatzsammlung
    Linguistische Datenverarbeitung / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Information Retrieval / Aufsatzsammlung
    Automatische Indexierung / Aufsatzsammlung
    Linguistische Datenverarbeitung / Aufsatzsammlung
  20. Semantic role universals and argument linking : theoretical, typological, and psycholinguistic perspectives (2006) 0.01
    0.007711865 = product of:
      0.04627119 = sum of:
        0.04627119 = product of:
          0.09254238 = sum of:
            0.09254238 = weight(_text_:aufsatzsammlung in 3670) [ClassicSimilarity], result of:
              0.09254238 = score(doc=3670,freq=4.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.41006804 = fieldWeight in 3670, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3670)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Thematische Relation / Aufsatzsammlung (BVB)
    Subject
    Thematische Relation / Aufsatzsammlung (BVB)

Years

Languages

  • e 39
  • d 29

Types

  • a 46
  • m 10
  • s 8
  • el 7
  • x 4
  • d 2
  • p 2
  • More… Less…

Classifications