Search (12 results, page 1 of 1)

  • × theme_ss:"Computerlinguistik"
  • × year_i:[2010 TO 2020}
  1. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.24
    0.23900001 = product of:
      0.47800002 = sum of:
        0.15492798 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15492798 = score(doc=563,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15492798 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15492798 = score(doc=563,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15492798 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15492798 = score(doc=563,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.013216058 = product of:
          0.026432116 = sum of:
            0.026432116 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.026432116 = score(doc=563,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  2. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.01
    0.010750603 = product of:
      0.08600482 = sum of:
        0.08600482 = weight(_text_:unternehmen in 3547) [ClassicSimilarity], result of:
          0.08600482 = score(doc=3547,freq=4.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.49797118 = fieldWeight in 3547, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=3547)
      0.125 = coord(1/8)
    
    Abstract
    Anwendungen von maschinellen Lernverfahren (ML) haben in jüngster Zeit aufsehenerregende Durchbrüche bei einer ganzen Reihe von Aufgaben in der maschinellen Sprachverarbeitung (NLP) erzielt. Der Fokus vieler Arbeiten liegt hierbei in der Entwicklung immer besserer Modelle, während der Anteil der Aufgaben in praktischen Projekten, der sich nicht mit Modellbildung, sondern mit Themen wie Datenbereitstellung sowie Evaluierung, Wartung und Deployment von Modellen beschäftigt, oftmals noch nicht ausreichend Beachtung erfährt. Im Ergebnis fehlen gerade Unternehmen, die nicht die Möglichkeit haben, eigene Plattformen für den Einsatz von ML und NLP zu entwerfen, oft geeignete Werkzeuge und Best Practices. Es ist zeichnet sich ab, dass in den kommenden Monaten eine gerade diesen praktischen Fragen zugewandte Ingenieurssicht auf ML und ihren Einsatz im Unternehmen an Bedeutung gewinnen wird.
  3. Savoy, J.: Text representation strategies : an example with the State of the union addresses (2016) 0.01
    0.0105228955 = product of:
      0.084183164 = sum of:
        0.084183164 = weight(_text_:union in 3042) [ClassicSimilarity], result of:
          0.084183164 = score(doc=3042,freq=4.0), product of:
            0.18718043 = queryWeight, product of:
              5.756716 = idf(docFreq=379, maxDocs=44218)
              0.032515142 = queryNorm
            0.44974342 = fieldWeight in 3042, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.756716 = idf(docFreq=379, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3042)
      0.125 = coord(1/8)
    
    Abstract
    Based on State of the Union addresses from 1790 to 2014 (225 speeches delivered by 42 presidents), this paper describes and evaluates different text representation strategies. To determine the most important words of a given text, the term frequencies (tf) or the tf?idf weighting scheme can be applied. Recently, latent Dirichlet allocation (LDA) has been proposed to define the topics included in a corpus. As another strategy, this study proposes to apply a vocabulary specificity measure (Z?score) to determine the most significantly overused word-types or short sequences of them. Our experiments show that the simple term frequency measure is not able to discriminate between specific terms associated with a document or a set of texts. Using the tf idf or LDA approach, the selection requires some arbitrary decisions. Based on the term-specific measure (Z?score), the term selection has a clear theoretical basis. Moreover, the most significant sentences for each presidency can be determined. As another facet, we can visualize the dynamic evolution of usage of some terms associated with their specificity measures. Finally, this technique can be employed to define the most important lexical leaders introducing terms overused by the k following presidencies.
  4. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.01
    0.008868795 = product of:
      0.07095036 = sum of:
        0.07095036 = weight(_text_:unternehmen in 3977) [ClassicSimilarity], result of:
          0.07095036 = score(doc=3977,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.41080526 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.125 = coord(1/8)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  5. Terminologie : Epochen - Schwerpunkte - Umsetzungen : zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie (2019) 0.01
    0.008118906 = product of:
      0.06495125 = sum of:
        0.06495125 = weight(_text_:wissensmanagement in 5602) [ClassicSimilarity], result of:
          0.06495125 = score(doc=5602,freq=2.0), product of:
            0.19552355 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.032515142 = queryNorm
            0.33219144 = fieldWeight in 5602, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
      0.125 = coord(1/8)
    
    Abstract
    Alle, die sich mit fachsprachlichen Texten beschäftigen, beschäftigen sich automatisch auch mit Terminologie: Beim Lesen von Fachtexten nehmen sie die darin enthaltene Terminologie auf, beim Verfassen von Fachtexten verwenden oder produzieren sie Terminologie, beim Fachübersetzen übertragen sie Terminologie in andere Sprachen. Im Laufe der Zeit haben sich Methoden und Verfahren entwickelt, wie man professionell und effizient mit Terminologie arbeitet. Die Auseinandersetzung mit den Grundsätzen der Terminologiearbeit hat sich zu einer wissenschaftlichen Disziplin entwickelt. Der Rat für Deutschsprachige Terminologie (RaDT) wurde 1994 als Initiative der UNESCO-Kommissionen Deutschlands, Österreichs und der Schweiz gegründet, um terminologische Aktivitäten zu fördern. Zu seinem 25-jährigen Bestehen erscheint nun dieser Sammelband, der einen Überblick über das vielfältige Schaffen und das gesamte Themenspektrum der RaDT-Mitglieder bietet. Um die verschiedenen Perspektiven innerhalb der RaDT-Gemeinschaft angemessen wiederzugeben, umfasst der Band vier Themenbereiche: 1. Vielfalt an Epochen 2. Vielfalt an Schwerpunkten 3. Vielfalt an Umsetzungen (in öffentlichen Institutionen) 4. Vielfalt an Umsetzungen (in der Privatwirtschaft) Dieser Sammelband richtet sich an alle, die sich mit Terminologie, Terminologiewissenschaft oder Terminologiearbeit befassen, insbesondere in Unternehmensbereichen wie Sprachmanagement, Terminologiemanagement, Corporate Language, Wissensmanagement, sowie an Studierende und Wissenschaftler in den entsprechenden Disziplinen.
  6. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.01
    0.007601824 = product of:
      0.060814593 = sum of:
        0.060814593 = weight(_text_:unternehmen in 2849) [ClassicSimilarity], result of:
          0.060814593 = score(doc=2849,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.3521188 = fieldWeight in 2849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
      0.125 = coord(1/8)
    
    Abstract
    Natural Language Classifier helfen Unternehmen zunehmend dabei die Flut von Textdaten zu überwinden. Aber diese Classifier, einmal trainiert, verlieren mit der Zeit ihre Nützlichkeit. Sie bleiben statisch, aber die zugrundeliegende Domäne der Textdaten verändert sich: Ihre Genauigkeit nimmt aufgrund eines Phänomens ab, das als Konzeptdrift bekannt ist. Die Frage ist ob Konzeptdrift durch die Ausgabe eines Classifiers zuverlässig erkannt werden kann, und falls ja: ist es möglich dem durch nachtrainieren des Classifiers entgegenzuwirken. Es wird eine System-Implementierung mittels Proof-of-Concept vorgestellt, bei der das Konfidenzmass des Classifiers zur Erkennung von Konzeptdrift verwendet wird. Der Classifier wird dann iterativ neu trainiert, indem er Stichproben mit niedrigem Konfidenzmass auswählt, sie korrigiert und im Trainingsset der nächsten Iteration verwendet. Die Leistung des Classifiers wird über die Zeit gemessen, und die Leistung des Systems beobachtet. Basierend darauf werden schließlich Empfehlungen gegeben, die sich bei der Implementierung solcher Systeme als nützlich erweisen können.
  7. Multi-source, multilingual information extraction and summarization (2013) 0.01
    0.0068345116 = product of:
      0.054676093 = sum of:
        0.054676093 = product of:
          0.10935219 = sum of:
            0.10935219 = weight(_text_:aufsatzsammlung in 978) [ClassicSimilarity], result of:
              0.10935219 = score(doc=978,freq=4.0), product of:
                0.21333472 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.032515142 = queryNorm
                0.51258504 = fieldWeight in 978, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=978)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    RSWK
    Natürlichsprachiges System / Information Extraction / Automatische Inhaltsanalyse / Zusammenfassung / Aufsatzsammlung
    Subject
    Natürlichsprachiges System / Information Extraction / Automatische Inhaltsanalyse / Zusammenfassung / Aufsatzsammlung
  8. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.00
    0.0022026764 = product of:
      0.017621411 = sum of:
        0.017621411 = product of:
          0.035242822 = sum of:
            0.035242822 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.035242822 = score(doc=1490,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    22. 3.2015 9:30:24
  9. Lawrie, D.; Mayfield, J.; McNamee, P.; Oard, P.W.: Cross-language person-entity linking from 20 languages (2015) 0.00
    0.0016520072 = product of:
      0.013216058 = sum of:
        0.013216058 = product of:
          0.026432116 = sum of:
            0.026432116 = weight(_text_:22 in 1848) [ClassicSimilarity], result of:
              0.026432116 = score(doc=1848,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.23214069 = fieldWeight in 1848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1848)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    The goal of entity linking is to associate references to an entity that is found in unstructured natural language content to an authoritative inventory of known entities. This article describes the construction of 6 test collections for cross-language person-entity linking that together span 22 languages. Fully automated components were used together with 2 crowdsourced validation stages to affordably generate ground-truth annotations with an accuracy comparable to that of a completely manual process. The resulting test collections each contain between 642 (Arabic) and 2,361 (Romanian) person references in non-English texts for which the correct resolution in English Wikipedia is known, plus a similar number of references for which no correct resolution into English Wikipedia is believed to exist. Fully automated cross-language person-name linking experiments with 20 non-English languages yielded a resolution accuracy of between 0.84 (Serbian) and 0.98 (Romanian), which compares favorably with previously reported cross-language entity linking results for Spanish.
  10. Fóris, A.: Network theory and terminology (2013) 0.00
    0.0013766728 = product of:
      0.011013382 = sum of:
        0.011013382 = product of:
          0.022026764 = sum of:
            0.022026764 = weight(_text_:22 in 1365) [ClassicSimilarity], result of:
              0.022026764 = score(doc=1365,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.19345059 = fieldWeight in 1365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1365)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    2. 9.2014 21:22:48
  11. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.0011013382 = product of:
      0.0088107055 = sum of:
        0.0088107055 = product of:
          0.017621411 = sum of:
            0.017621411 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.017621411 = score(doc=4217,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    22. 1.2018 11:32:44
  12. Deventer, J.P. van; Kruger, C.J.; Johnson, R.D.: Delineating knowledge management through lexical analysis : a retrospective (2015) 0.00
    9.636709E-4 = product of:
      0.007709367 = sum of:
        0.007709367 = product of:
          0.015418734 = sum of:
            0.015418734 = weight(_text_:22 in 3807) [ClassicSimilarity], result of:
              0.015418734 = score(doc=3807,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.1354154 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3807)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    20. 1.2015 18:30:22