Search (350 results, page 1 of 18)

  • × theme_ss:"Computerlinguistik"
  1. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.11
    0.11266022 = product of:
      0.18776703 = sum of:
        0.010888893 = product of:
          0.021777786 = sum of:
            0.021777786 = weight(_text_:wissenschaft in 877) [ClassicSimilarity], result of:
              0.021777786 = score(doc=877,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.17542224 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.5 = coord(1/2)
        0.0327136 = weight(_text_:forschung in 877) [ClassicSimilarity], result of:
          0.0327136 = score(doc=877,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.21500172 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.026296835 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.026296835 = score(doc=877,freq=30.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.01060027 = weight(_text_:des in 877) [ClassicSimilarity], result of:
          0.01060027 = score(doc=877,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.12238726 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.10156622 = weight(_text_:brandenburg in 877) [ClassicSimilarity], result of:
          0.10156622 = score(doc=877,freq=4.0), product of:
            0.22544436 = queryWeight, product of:
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.031275876 = queryNorm
            0.4505157 = fieldWeight in 877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.208251 = idf(docFreq=88, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.005701219 = product of:
          0.017103657 = sum of:
            0.017103657 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.017103657 = score(doc=877,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.33333334 = coord(1/3)
      0.6 = coord(6/10)
    
    Abstract
    ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
    Source
    https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
  2. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.07
    0.070473395 = product of:
      0.17618348 = sum of:
        0.03849805 = product of:
          0.0769961 = sum of:
            0.0769961 = weight(_text_:wissenschaft in 1044) [ClassicSimilarity], result of:
              0.0769961 = score(doc=1044,freq=4.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.62021124 = fieldWeight in 1044, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1044)
          0.5 = coord(1/2)
        0.081784 = weight(_text_:forschung in 1044) [ClassicSimilarity], result of:
          0.081784 = score(doc=1044,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.5375043 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.029400755 = weight(_text_:und in 1044) [ClassicSimilarity], result of:
          0.029400755 = score(doc=1044,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.42413816 = fieldWeight in 1044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.026500674 = weight(_text_:des in 1044) [ClassicSimilarity], result of:
          0.026500674 = score(doc=1044,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
      0.4 = coord(4/10)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  3. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.04
    0.041104924 = product of:
      0.102762304 = sum of:
        0.01633334 = product of:
          0.03266668 = sum of:
            0.03266668 = weight(_text_:wissenschaft in 5629) [ClassicSimilarity], result of:
              0.03266668 = score(doc=5629,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.26313335 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
        0.0490704 = weight(_text_:forschung in 5629) [ClassicSimilarity], result of:
          0.0490704 = score(doc=5629,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.32250258 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.028806739 = weight(_text_:und in 5629) [ClassicSimilarity], result of:
          0.028806739 = score(doc=5629,freq=16.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41556883 = fieldWeight in 5629, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.008551829 = product of:
          0.025655484 = sum of:
            0.025655484 = weight(_text_:29 in 5629) [ClassicSimilarity], result of:
              0.025655484 = score(doc=5629,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.23319192 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
    Date
    29. 1.1997 18:49:05
  4. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023) 0.04
    0.037577763 = product of:
      0.1252592 = sum of:
        0.081784 = weight(_text_:forschung in 1051) [ClassicSimilarity], result of:
          0.081784 = score(doc=1051,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.5375043 = fieldWeight in 1051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
        0.016974533 = weight(_text_:und in 1051) [ClassicSimilarity], result of:
          0.016974533 = score(doc=1051,freq=2.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24487628 = fieldWeight in 1051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
        0.026500674 = weight(_text_:des in 1051) [ClassicSimilarity], result of:
          0.026500674 = score(doc=1051,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 1051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1051)
      0.3 = coord(3/10)
    
    Abstract
    Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
    Content
    Wiederabdruck des Beitrags aus: Forschung & Lehre vom 20.12.2022. Vgl.: DOI 10.1515/dmvm-2023-0007.
  5. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.04
    0.036939994 = product of:
      0.1231333 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 4018) [ClassicSimilarity], result of:
              0.043555573 = score(doc=4018,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 4018, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4018)
          0.5 = coord(1/2)
        0.0654272 = weight(_text_:forschung in 4018) [ClassicSimilarity], result of:
          0.0654272 = score(doc=4018,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 4018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.035928313 = weight(_text_:und in 4018) [ClassicSimilarity], result of:
          0.035928313 = score(doc=4018,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.51830536 = fieldWeight in 4018, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.3 = coord(3/10)
    
    Abstract
    Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366
  6. Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012) 0.04
    0.03527099 = product of:
      0.11756995 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 555) [ClassicSimilarity], result of:
              0.043555573 = score(doc=555,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 555, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=555)
          0.5 = coord(1/2)
        0.0654272 = weight(_text_:forschung in 555) [ClassicSimilarity], result of:
          0.0654272 = score(doc=555,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.03036497 = weight(_text_:und in 555) [ClassicSimilarity], result of:
          0.03036497 = score(doc=555,freq=10.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.438048 = fieldWeight in 555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
      0.3 = coord(3/10)
    
    Abstract
    In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.5, S.292-296
  7. Geißler, S.: Natürliche Sprachverarbeitung und Künstliche Intelligenz : ein wachsender Markt mit vielen Chancen. Das Beispiel Kairntech (2020) 0.03
    0.034692626 = product of:
      0.08673156 = sum of:
        0.013611117 = product of:
          0.027222235 = sum of:
            0.027222235 = weight(_text_:wissenschaft in 5924) [ClassicSimilarity], result of:
              0.027222235 = score(doc=5924,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.2192778 = fieldWeight in 5924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5924)
          0.5 = coord(1/2)
        0.040892 = weight(_text_:forschung in 5924) [ClassicSimilarity], result of:
          0.040892 = score(doc=5924,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.26875216 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.018978104 = weight(_text_:und in 5924) [ClassicSimilarity], result of:
          0.018978104 = score(doc=5924,freq=10.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.27378 = fieldWeight in 5924, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.013250337 = weight(_text_:des in 5924) [ClassicSimilarity], result of:
          0.013250337 = score(doc=5924,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.15298408 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
      0.4 = coord(4/10)
    
    Abstract
    Vor rund einem Jahr haben wir an dieser Stelle die aufregende Dynamik auf den Gebieten der Natürlichen Sprachverarbeitung (NLP) und der Künstlichen Intelligenz (KI) beschrieben: Seit einigen Jahren sorgen Fortschritte in den algorithmischen Grundlagen, in der einsetzbaren Rechenleistung sowie in der Verfügbarkeit von großen Datenmengen für immer leistungsfähigere Systeme. NLP-Anwendungen seien damit mehr denn je reif für den praktischen Einsatz, hatten wir argumentiert. Diese Entwicklung verfolgen wir bei Kairntech nicht allein als interessierte Beobachter, sondern sie stellt die Grundlage unserer Arbeit dar, mit der wir NLP- und KI-Ansätze zur Anwendung auf konkreten geschäftskritischen Prozessen entwickeln und einsetzen. Experten gehen auch für die kommenden Jahre von einem anhaltenden Wachstum des weltweiten Marktes für NLP aus: Mit einem durchschnittlichen Wachstum von über 20 Prozent pro Jahr werde der Markt bis 2025 auf geschätzte 6,24 Milliarden US-$ anwachsen. Im Bereich der Forschung ist das Wachstum sogar noch stürmischer: So ist die Zahl der Einreichungen zur ACL-Konferenz, dem vielleicht wichtigsten jährlichen Event in diesem Gebiet, von 2018 bis 2019 um ganze 75 Prozent angestiegen. Im vorliegenden Text wollen wir die Richtung, die wir bei Kairntech mit der Gründung vor einem Jahr eingeschlagen haben, beschreiben sowie von ersten Erfolgen auf diesem Weg berichten.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
  8. Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023) 0.03
    0.030411089 = product of:
      0.15205544 = sum of:
        0.037956208 = weight(_text_:und in 908) [ClassicSimilarity], result of:
          0.037956208 = score(doc=908,freq=10.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.54756 = fieldWeight in 908, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
        0.11409924 = weight(_text_:kultur in 908) [ClassicSimilarity], result of:
          0.11409924 = score(doc=908,freq=2.0), product of:
            0.17971884 = queryWeight, product of:
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.031275876 = queryNorm
            0.6348764 = fieldWeight in 908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
      0.2 = coord(2/10)
    
    Abstract
    Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
    Series
    Telepolis / Kultur und Medien
    Source
    https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
  9. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.03
    0.027721018 = product of:
      0.069302544 = sum of:
        0.0073194965 = product of:
          0.021958489 = sum of:
            0.021958489 = weight(_text_:f in 548) [ClassicSimilarity], result of:
              0.021958489 = score(doc=548,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.17614852 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
        0.02448102 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.02448102 = score(doc=548,freq=26.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.031800807 = weight(_text_:des in 548) [ClassicSimilarity], result of:
          0.031800807 = score(doc=548,freq=18.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.36716178 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.005701219 = product of:
          0.017103657 = sum of:
            0.017103657 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.017103657 = score(doc=548,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
    Series
    Saarbrücker Beiträge zur Sprach- und Translationswissenschaft; Bd.8
  10. Räwel, J.: Automatisierte Kommunikation (2023) 0.03
    0.026182348 = product of:
      0.08727449 = sum of:
        0.016974533 = weight(_text_:und in 909) [ClassicSimilarity], result of:
          0.016974533 = score(doc=909,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24487628 = fieldWeight in 909, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.05704962 = weight(_text_:kultur in 909) [ClassicSimilarity], result of:
          0.05704962 = score(doc=909,freq=2.0), product of:
            0.17971884 = queryWeight, product of:
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.031275876 = queryNorm
            0.3174382 = fieldWeight in 909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
        0.013250337 = weight(_text_:des in 909) [ClassicSimilarity], result of:
          0.013250337 = score(doc=909,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.15298408 = fieldWeight in 909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=909)
      0.3 = coord(3/10)
    
    Abstract
    Eine kommunikationstheoretische Einordnung des Chatbots ChatGPT
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
    Series
    Telepolis / Kultur und Medien
  11. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.03
    0.025889236 = product of:
      0.08629745 = sum of:
        0.040892 = weight(_text_:forschung in 2731) [ClassicSimilarity], result of:
          0.040892 = score(doc=2731,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.26875216 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.022455195 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.022455195 = score(doc=2731,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.022950258 = weight(_text_:des in 2731) [ClassicSimilarity], result of:
          0.022950258 = score(doc=2731,freq=6.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2649762 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.3 = coord(3/10)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  12. Strube, M.: Kreativ durch Analogien (2011) 0.03
    0.025730059 = product of:
      0.08576686 = sum of:
        0.038111128 = product of:
          0.076222256 = sum of:
            0.076222256 = weight(_text_:wissenschaft in 4805) [ClassicSimilarity], result of:
              0.076222256 = score(doc=4805,freq=8.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.61397785 = fieldWeight in 4805, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4805)
          0.5 = coord(1/2)
        0.029105263 = weight(_text_:und in 4805) [ClassicSimilarity], result of:
          0.029105263 = score(doc=4805,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41987535 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.01855047 = weight(_text_:des in 4805) [ClassicSimilarity], result of:
          0.01855047 = score(doc=4805,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 4805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
      0.3 = coord(3/10)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
    Series
    Spektrum der Wissenschaft - Extra: Datengetriebene Wissenschaft
    Source
    Spektrum der Wissenschaft. 2011, H.12, S.30-33
  13. Konrad, K.; Maier, H.; Pinkal, M.; Milward, D.: CLEARS: ein Werkzeug für Ausbildung und Forschung in der Computerlinguistik (1996) 0.02
    0.023702048 = product of:
      0.11851024 = sum of:
        0.0981408 = weight(_text_:forschung in 7298) [ClassicSimilarity], result of:
          0.0981408 = score(doc=7298,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.64500517 = fieldWeight in 7298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=7298)
        0.02036944 = weight(_text_:und in 7298) [ClassicSimilarity], result of:
          0.02036944 = score(doc=7298,freq=2.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.29385152 = fieldWeight in 7298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7298)
      0.2 = coord(2/10)
    
  14. Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006) 0.02
    0.023671994 = product of:
      0.07890664 = sum of:
        0.021777786 = product of:
          0.043555573 = sum of:
            0.043555573 = weight(_text_:wissenschaft in 6023) [ClassicSimilarity], result of:
              0.043555573 = score(doc=6023,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.35084447 = fieldWeight in 6023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6023)
          0.5 = coord(1/2)
        0.035928313 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.035928313 = score(doc=6023,freq=14.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.02120054 = weight(_text_:des in 6023) [ClassicSimilarity], result of:
          0.02120054 = score(doc=6023,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.24477452 = fieldWeight in 6023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
      0.3 = coord(3/10)
    
    Abstract
    Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314
  15. Zue, V.: Dein Computer spricht mir dir (1999) 0.02
    0.023573123 = product of:
      0.07857707 = sum of:
        0.03266668 = product of:
          0.06533336 = sum of:
            0.06533336 = weight(_text_:wissenschaft in 4244) [ClassicSimilarity], result of:
              0.06533336 = score(doc=4244,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.5262667 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.5 = coord(1/2)
        0.028806739 = weight(_text_:und in 4244) [ClassicSimilarity], result of:
          0.028806739 = score(doc=4244,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41556883 = fieldWeight in 4244, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4244)
        0.017103657 = product of:
          0.051310968 = sum of:
            0.051310968 = weight(_text_:29 in 4244) [ClassicSimilarity], result of:
              0.051310968 = score(doc=4244,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.46638384 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Durch Spracherkennungs- und Sprachsynthesesysteme wird man schon bald Informationen einholen und Befehle erteilen können, ohne auch nur einen Finger zu rühren
    Date
    31.12.1996 19:29:41
    Source
    Spektrum der Wissenschaft. 1999, H.12, S.66-68
  16. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.02
    0.023304055 = product of:
      0.07768018 = sum of:
        0.018298741 = product of:
          0.054896224 = sum of:
            0.054896224 = weight(_text_:f in 190) [ClassicSimilarity], result of:
              0.054896224 = score(doc=190,freq=8.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.4403713 = fieldWeight in 190, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
        0.052319027 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.052319027 = score(doc=190,freq=76.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.007062416 = product of:
          0.021187248 = sum of:
            0.021187248 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.021187248 = score(doc=190,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Spr F 510
    Spr F 87 / Lexikographie
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    SBB
    Spr F 510
    Spr F 87 / Lexikographie
    Series
    Sprache und Information ; 33
  17. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.02
    0.02301812 = product of:
      0.11509059 = sum of:
        0.0981408 = weight(_text_:forschung in 4888) [ClassicSimilarity], result of:
          0.0981408 = score(doc=4888,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.64500517 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.016949799 = product of:
          0.050849393 = sum of:
            0.050849393 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.050849393 = score(doc=4888,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  18. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.02
    0.022981603 = product of:
      0.07660534 = sum of:
        0.040892 = weight(_text_:forschung in 123) [ClassicSimilarity], result of:
          0.040892 = score(doc=123,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.26875216 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.016974533 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.016974533 = score(doc=123,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24487628 = fieldWeight in 123, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.018738806 = weight(_text_:des in 123) [ClassicSimilarity], result of:
          0.018738806 = score(doc=123,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.21635216 = fieldWeight in 123, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
      0.3 = coord(3/10)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  19. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.02
    0.022751916 = product of:
      0.07583972 = sum of:
        0.028624399 = weight(_text_:forschung in 572) [ClassicSimilarity], result of:
          0.028624399 = score(doc=572,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.1881265 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.024495726 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.024495726 = score(doc=572,freq=34.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.35337773 = fieldWeight in 572, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.022719594 = weight(_text_:des in 572) [ClassicSimilarity], result of:
          0.022719594 = score(doc=572,freq=12.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.26231304 = fieldWeight in 572, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.3 = coord(3/10)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
    Content
    Arbeit zur Erlangung des akademischen Grades einer Magistra Artium im Fach Internationales Informationsmanagement Schwerpunkt Informationswissenschaften. - Vgl. unter: http://web1.bib.uni-hildesheim.de/edocs/2005/503974617/doc/503974617.pdf.
    Imprint
    Hildesheim : Universität Hildesheim / Fachbereich III; Informations- und Kommunikationswissenschaften
  20. Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia : Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000 Fachhochschule Köln (2000) 0.02
    0.022720119 = product of:
      0.0568003 = sum of:
        0.009149371 = product of:
          0.027448112 = sum of:
            0.027448112 = weight(_text_:f in 5527) [ClassicSimilarity], result of:
              0.027448112 = score(doc=5527,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.22018565 = fieldWeight in 5527, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5527)
          0.33333334 = coord(1/3)
        0.013611117 = product of:
          0.027222235 = sum of:
            0.027222235 = weight(_text_:wissenschaft in 5527) [ClassicSimilarity], result of:
              0.027222235 = score(doc=5527,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.2192778 = fieldWeight in 5527, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5527)
          0.5 = coord(1/2)
        0.020789472 = weight(_text_:und in 5527) [ClassicSimilarity], result of:
          0.020789472 = score(doc=5527,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.29991096 = fieldWeight in 5527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5527)
        0.013250337 = weight(_text_:des in 5527) [ClassicSimilarity], result of:
          0.013250337 = score(doc=5527,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.15298408 = fieldWeight in 5527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5527)
      0.4 = coord(4/10)
    
    Content
    Enthält die Beiträge: WRIGHT, S.E.: Leveraging terminology resources across application boundaries: accessing resources in future integrated environments; PALME, K.: E-Commerce: Verhindert Sprache Business-to-business?; RÜEGGER, R.: Die qualität der virtuellen Information als Wettbewerbsvorteil: Information im Internet ist Sprache - noch; SCHIRMER, K. u. J. HALLER: Zugang zu mehrsprachigen Nachrichten im Internet; WEISS, A. u. W. WIEDEN: Die Herstellung mehrsprachiger Informations- und Wissensressourcen in Unternehmen; FULFORD, H.: Monolingual or multilingual web sites? An exploratory study of UK SMEs; SCHMIDTKE-NIKELLA, M.: Effiziente Hypermediaentwicklung: Die Autorenentlastung durch eine Engine; SCHMIDT, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft; HELBIG, H. u.a.: Natürlichsprachlicher Zugang zu Informationsanbietern im Internet und zu lokalen Datenbanken; SIENEL, J. u.a.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts; ERBACH, G.: Sprachdialogsysteme für Telefondienste: Stand der Technik und zukünftige Entwicklungen; SUSEN, A.: Spracherkennung: Akteulle Einsatzmöglichkeiten im Bereich der Telekommunikation; BENZMÜLLER, R.: Logox WebSpeech: die neue Technologie für sprechende Internetseiten; JAARANEN, K. u.a.: Webtran tools for in-company language support; SCHMITZ, K.-D.: Projektforschung und Infrastrukturen im Bereich der Terminologie: Wie kann die Wirtschaft davon profitieren?; SCHRÖTER, F. u. U. MEYER: Entwicklung sprachlicher Handlungskompetenz in englisch mit hilfe eines Multimedia-Sprachlernsystems; KLEIN, A.: Der Einsatz von Sprachverarbeitungstools beim Sprachenlernen im Intranet; HAUER, M.: Knowledge Management braucht Terminologie Management; HEYER, G. u.a.: Texttechnologische Anwendungen am Beispiel Text Mining

Years

Languages

  • d 206
  • e 122
  • ru 12
  • f 6
  • m 4
  • More… Less…

Types

  • a 268
  • m 45
  • el 42
  • s 20
  • x 11
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications