Search (69 results, page 1 of 4)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.32
    0.318116 = product of:
      0.50898564 = sum of:
        0.030985598 = product of:
          0.15492798 = sum of:
            0.15492798 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.15492798 = score(doc=562,freq=2.0), product of:
                0.27566373 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.032515142 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.15492798 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15492798 = score(doc=562,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15492798 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15492798 = score(doc=562,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15492798 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15492798 = score(doc=562,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.013216058 = product of:
          0.026432116 = sum of:
            0.026432116 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.026432116 = score(doc=562,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.25
    0.24788478 = product of:
      0.49576956 = sum of:
        0.030985598 = product of:
          0.15492798 = sum of:
            0.15492798 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.15492798 = score(doc=862,freq=2.0), product of:
                0.27566373 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.032515142 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.2 = coord(1/5)
        0.15492798 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15492798 = score(doc=862,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15492798 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15492798 = score(doc=862,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15492798 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15492798 = score(doc=862,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(4/8)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.24
    0.23900001 = product of:
      0.47800002 = sum of:
        0.15492798 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15492798 = score(doc=563,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15492798 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15492798 = score(doc=563,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15492798 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15492798 = score(doc=563,freq=2.0), product of:
            0.27566373 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032515142 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.013216058 = product of:
          0.026432116 = sum of:
            0.026432116 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.026432116 = score(doc=563,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Informationslinguistische Texterschließung (1986) 0.02
    0.016741067 = product of:
      0.13392854 = sum of:
        0.13392854 = product of:
          0.26785707 = sum of:
            0.26785707 = weight(_text_:aufsatzsammlung in 186) [ClassicSimilarity], result of:
              0.26785707 = score(doc=186,freq=24.0), product of:
                0.21333472 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.032515142 = queryNorm
                1.2555718 = fieldWeight in 186, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=186)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    RSWK
    Information Retrieval / Aufsatzsammlung (DNB)
    Automatische Sprachanalyse / Morphologie / Aufsatzsammlung (SBB / GBV)
    Automatische Sprachanalyse / Morphologie <Linguistik> / Aufsatzsammlung (DNB)
    Linguistische Datenverarbeitung / Linguistik / Aufsatzsammlung (SWB)
    Linguistik / Information Retrieval / Aufsatzsammlung (SWB / BVB)
    Linguistische Datenverarbeitung / Textanalyse / Aufsatzsammlung (BVB)
    Subject
    Information Retrieval / Aufsatzsammlung (DNB)
    Automatische Sprachanalyse / Morphologie / Aufsatzsammlung (SBB / GBV)
    Automatische Sprachanalyse / Morphologie <Linguistik> / Aufsatzsammlung (DNB)
    Linguistische Datenverarbeitung / Linguistik / Aufsatzsammlung (SWB)
    Linguistik / Information Retrieval / Aufsatzsammlung (SWB / BVB)
    Linguistische Datenverarbeitung / Textanalyse / Aufsatzsammlung (BVB)
  5. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.02
    0.016422369 = product of:
      0.13137895 = sum of:
        0.13137895 = sum of:
          0.10935219 = weight(_text_:aufsatzsammlung in 190) [ClassicSimilarity], result of:
            0.10935219 = score(doc=190,freq=4.0), product of:
              0.21333472 = queryWeight, product of:
                6.5610886 = idf(docFreq=169, maxDocs=44218)
                0.032515142 = queryNorm
              0.51258504 = fieldWeight in 190, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.5610886 = idf(docFreq=169, maxDocs=44218)
                0.0390625 = fieldNorm(doc=190)
          0.022026764 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
            0.022026764 = score(doc=190,freq=2.0), product of:
              0.113862485 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.032515142 = queryNorm
              0.19345059 = fieldWeight in 190, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=190)
      0.125 = coord(1/8)
    
    Date
    14. 4.2007 10:04:22
    RSWK
    Computer / Anwendung / Computerunterstützte Lexikographie / Aufsatzsammlung
    Subject
    Computer / Anwendung / Computerunterstützte Lexikographie / Aufsatzsammlung
  6. Hickstein, A.C.: Spracheingabe in ein feldstrukturiertes Datenbanksystem zum Einsatz im Wissensmanagement (2008) 0.01
    0.012990249 = product of:
      0.103921995 = sum of:
        0.103921995 = weight(_text_:wissensmanagement in 2532) [ClassicSimilarity], result of:
          0.103921995 = score(doc=2532,freq=2.0), product of:
            0.19552355 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.032515142 = queryNorm
            0.5315063 = fieldWeight in 2532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=2532)
      0.125 = coord(1/8)
    
  7. Dampz, N.: ChatGPT interpretiert jetzt auch Bilder : Neue Version (2023) 0.01
    0.012669707 = product of:
      0.101357654 = sum of:
        0.101357654 = weight(_text_:unternehmen in 874) [ClassicSimilarity], result of:
          0.101357654 = score(doc=874,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.58686465 = fieldWeight in 874, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.078125 = fieldNorm(doc=874)
      0.125 = coord(1/8)
    
    Abstract
    Das kalifornische Unternehmen Open AI hat eine neue Version ihres Chatbots ChatGPT vorgestellt. Auffallendste Neuerung: Die Software, die mit Künstlicher Intelligenz funktioniert und bisher auf Text ausgerichtet war, interpretiert nun auch Bilder.
  8. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.01
    0.010796137 = product of:
      0.04318455 = sum of:
        0.03547518 = weight(_text_:unternehmen in 5759) [ClassicSimilarity], result of:
          0.03547518 = score(doc=5759,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.20540263 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.007709367 = product of:
          0.015418734 = sum of:
            0.015418734 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.015418734 = score(doc=5759,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  9. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.01
    0.010750603 = product of:
      0.08600482 = sum of:
        0.08600482 = weight(_text_:unternehmen in 3547) [ClassicSimilarity], result of:
          0.08600482 = score(doc=3547,freq=4.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.49797118 = fieldWeight in 3547, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=3547)
      0.125 = coord(1/8)
    
    Abstract
    Anwendungen von maschinellen Lernverfahren (ML) haben in jüngster Zeit aufsehenerregende Durchbrüche bei einer ganzen Reihe von Aufgaben in der maschinellen Sprachverarbeitung (NLP) erzielt. Der Fokus vieler Arbeiten liegt hierbei in der Entwicklung immer besserer Modelle, während der Anteil der Aufgaben in praktischen Projekten, der sich nicht mit Modellbildung, sondern mit Themen wie Datenbereitstellung sowie Evaluierung, Wartung und Deployment von Modellen beschäftigt, oftmals noch nicht ausreichend Beachtung erfährt. Im Ergebnis fehlen gerade Unternehmen, die nicht die Möglichkeit haben, eigene Plattformen für den Einsatz von ML und NLP zu entwerfen, oft geeignete Werkzeuge und Best Practices. Es ist zeichnet sich ab, dass in den kommenden Monaten eine gerade diesen praktischen Fragen zugewandte Ingenieurssicht auf ML und ihren Einsatz im Unternehmen an Bedeutung gewinnen wird.
  10. Savoy, J.: Text representation strategies : an example with the State of the union addresses (2016) 0.01
    0.0105228955 = product of:
      0.084183164 = sum of:
        0.084183164 = weight(_text_:union in 3042) [ClassicSimilarity], result of:
          0.084183164 = score(doc=3042,freq=4.0), product of:
            0.18718043 = queryWeight, product of:
              5.756716 = idf(docFreq=379, maxDocs=44218)
              0.032515142 = queryNorm
            0.44974342 = fieldWeight in 3042, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.756716 = idf(docFreq=379, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3042)
      0.125 = coord(1/8)
    
    Abstract
    Based on State of the Union addresses from 1790 to 2014 (225 speeches delivered by 42 presidents), this paper describes and evaluates different text representation strategies. To determine the most important words of a given text, the term frequencies (tf) or the tf?idf weighting scheme can be applied. Recently, latent Dirichlet allocation (LDA) has been proposed to define the topics included in a corpus. As another strategy, this study proposes to apply a vocabulary specificity measure (Z?score) to determine the most significantly overused word-types or short sequences of them. Our experiments show that the simple term frequency measure is not able to discriminate between specific terms associated with a document or a set of texts. Using the tf idf or LDA approach, the selection requires some arbitrary decisions. Based on the term-specific measure (Z?score), the term selection has a clear theoretical basis. Moreover, the most significant sentences for each presidency can be determined. As another facet, we can visualize the dynamic evolution of usage of some terms associated with their specificity measures. Finally, this technique can be employed to define the most important lexical leaders introducing terms overused by the k following presidencies.
  11. Erbach, G.: Sprachdialogsysteme für Telefondienste : Stand der Technik und zukünftige Entwicklungen (2000) 0.01
    0.008958836 = product of:
      0.07167069 = sum of:
        0.07167069 = weight(_text_:unternehmen in 5556) [ClassicSimilarity], result of:
          0.07167069 = score(doc=5556,freq=4.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.414976 = fieldWeight in 5556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5556)
      0.125 = coord(1/8)
    
    Abstract
    Trotz des ungebrernsten Wachstums des Internet wird das Telefon auch weiterhin eines der wichtigsten Medien für die Kommunikation zwischen Unternehmen und ihren Kunden bleiben. Die Bedeutung der gesprochenen Sprache wird durch die rasante Verbreitung von Mobiltelefonen noch verstärkt. Fast alle großen Unternehmen betreiben oder beauftragen Call Centers, um ihren Kunden telefonisch zu Diensten zu stehen. Oft sind Call Centers mit sogenannten IVR-Systemen (Interactive Voice Response) ausgestattet, die dem Benutzer eine eingeschränkte Menüauswahl über die Telefontasten oder eine rudimentäre Spracheingabe bieten. Diese Art der Eingabe wird aber bei mehr als fünf Wahlmöglichkeiten als lästig empfunden. Hier bietet sich ein großes Potenzial für automatische Spracherkennung und Sprachdialogsysteme. In diesem Artikel werden die technischen Grundlagen sowie die derzeitigen Möglichkeiten und Grenzen der automatischen Spracherkennungstechnologie dargestellt. Wir berichten über Erfahrungen mit einem System für telefonische Posttarifauskünfte, das am Forschungszentrum Telekommunikation Wien (FTW) in Zusammenarbeit mit Philips Speech Processing und der Österreichischen Post AG realisiert und erprobt wurde. Der Stand der Technik in Sprachausgabe und Sprechererkennung wird kurz dargestellt. Zum Abschluss wird ein Ausblick auf die Rolle von Sprachdialogen in zukünftigen mobilen Multirnedia-Anwendungen gegeben
  12. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.01
    0.008868795 = product of:
      0.07095036 = sum of:
        0.07095036 = weight(_text_:unternehmen in 3977) [ClassicSimilarity], result of:
          0.07095036 = score(doc=3977,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.41080526 = fieldWeight in 3977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.125 = coord(1/8)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  13. Kim, W.; Wilbur, W.J.: Corpus-based statistical screening for content-bearing terms (2001) 0.01
    0.008418317 = product of:
      0.067346536 = sum of:
        0.067346536 = weight(_text_:union in 5188) [ClassicSimilarity], result of:
          0.067346536 = score(doc=5188,freq=4.0), product of:
            0.18718043 = queryWeight, product of:
              5.756716 = idf(docFreq=379, maxDocs=44218)
              0.032515142 = queryNorm
            0.35979474 = fieldWeight in 5188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.756716 = idf(docFreq=379, maxDocs=44218)
              0.03125 = fieldNorm(doc=5188)
      0.125 = coord(1/8)
    
    Abstract
    Kim and Wilber present three techniques for the algorithmic identification in text of content bearing terms and phrases intended for human use as entry points or hyperlinks. Using a set of 1,075 terms from MEDLINE evaluated on a zero to four, stop word to definite content word scale, they evaluate the ranked lists of their three methods based on their placement of content words in the top ranks. Data consist of the natural language elements of 304,057 MEDLINE records from 1996, and 173,252 Wall Street Journal records from the TIPSTER collection. Phrases are extracted by breaking at punctuation marks and stop words, normalized by lower casing, replacement of nonalphanumerics with spaces, and the reduction of multiple spaces. In the ``strength of context'' approach each document is a vector of binary values for each word or word pair. The words or word pairs are removed from all documents, and the Robertson, Spark Jones relevance weight for each term computed, negative weights replaced with zero, those below a randomness threshold ignored, and the remainder summed for each document, to yield a score for the document and finally to assign to the term the average document score for documents in which it occurred. The average of these word scores is assigned to the original phrase. The ``frequency clumping'' approach defines a random phrase as one whose distribution among documents is Poisson in character. A pvalue, the probability that a phrase frequency of occurrence would be equal to, or less than, Poisson expectations is computed, and a score assigned which is the negative log of that value. In the ``database comparison'' approach if a phrase occurring in a document allows prediction that the document is in MEDLINE rather that in the Wall Street Journal, it is considered to be content bearing for MEDLINE. The score is computed by dividing the number of occurrences of the term in MEDLINE by occurrences in the Journal, and taking the product of all these values. The one hundred top and bottom ranked phrases that occurred in at least 500 documents were collected for each method. The union set had 476 phrases. A second selection was made of two word phrases occurring each in only three documents with a union of 599 phrases. A judge then ranked the two sets of terms as to subject specificity on a 0 to 4 scale. Precision was the average subject specificity of the first r ranks and recall the fraction of the subject specific phrases in the first r ranks and eleven point average precision was used as a summary measure. The three methods all move content bearing terms forward in the lists as does the use of the sum of the logs of the three methods.
  14. Terminologie : Epochen - Schwerpunkte - Umsetzungen : zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie (2019) 0.01
    0.008118906 = product of:
      0.06495125 = sum of:
        0.06495125 = weight(_text_:wissensmanagement in 5602) [ClassicSimilarity], result of:
          0.06495125 = score(doc=5602,freq=2.0), product of:
            0.19552355 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.032515142 = queryNorm
            0.33219144 = fieldWeight in 5602, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
      0.125 = coord(1/8)
    
    Abstract
    Alle, die sich mit fachsprachlichen Texten beschäftigen, beschäftigen sich automatisch auch mit Terminologie: Beim Lesen von Fachtexten nehmen sie die darin enthaltene Terminologie auf, beim Verfassen von Fachtexten verwenden oder produzieren sie Terminologie, beim Fachübersetzen übertragen sie Terminologie in andere Sprachen. Im Laufe der Zeit haben sich Methoden und Verfahren entwickelt, wie man professionell und effizient mit Terminologie arbeitet. Die Auseinandersetzung mit den Grundsätzen der Terminologiearbeit hat sich zu einer wissenschaftlichen Disziplin entwickelt. Der Rat für Deutschsprachige Terminologie (RaDT) wurde 1994 als Initiative der UNESCO-Kommissionen Deutschlands, Österreichs und der Schweiz gegründet, um terminologische Aktivitäten zu fördern. Zu seinem 25-jährigen Bestehen erscheint nun dieser Sammelband, der einen Überblick über das vielfältige Schaffen und das gesamte Themenspektrum der RaDT-Mitglieder bietet. Um die verschiedenen Perspektiven innerhalb der RaDT-Gemeinschaft angemessen wiederzugeben, umfasst der Band vier Themenbereiche: 1. Vielfalt an Epochen 2. Vielfalt an Schwerpunkten 3. Vielfalt an Umsetzungen (in öffentlichen Institutionen) 4. Vielfalt an Umsetzungen (in der Privatwirtschaft) Dieser Sammelband richtet sich an alle, die sich mit Terminologie, Terminologiewissenschaft oder Terminologiearbeit befassen, insbesondere in Unternehmensbereichen wie Sprachmanagement, Terminologiemanagement, Corporate Language, Wissensmanagement, sowie an Studierende und Wissenschaftler in den entsprechenden Disziplinen.
  15. Schröter, F.; Meyer, U.: Entwicklung sprachlicher Handlungskompetenz in Englisch mit Hilfe eines Multimedia-Sprachlernsystems (2000) 0.01
    0.007601824 = product of:
      0.060814593 = sum of:
        0.060814593 = weight(_text_:unternehmen in 5567) [ClassicSimilarity], result of:
          0.060814593 = score(doc=5567,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.3521188 = fieldWeight in 5567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=5567)
      0.125 = coord(1/8)
    
    Abstract
    Firmen handeln zunehmend global. Daraus ergibt sich für die Mehrzahl der Mitarbeiter solcher Unternehmen die Notwendigkeit, die englische Sprache, die "lingua franca" der weltweiten Geschäftsbeziehungen, zu beherrschen, um sie wirkungsvoll einsetzen zu können - und dies auch unter interkulturellem Aspekt. Durch die Globalisierung ist es unmöglich geworden, ohne Fremdsprachenkenntnisse am freien Markt zu agieren." (Trends in der Personalentwicklung, PEF-Consulting, Wien) Das Erreichen interkultureller Handlungskompetenz in der Fremdsprache ist das Ziel des SprachIernsystems ,Sunpower - Communication Strategies in English for Business Purposes", das am Fachbereich Sprachen der Fachhochschule Köln entstanden und im Frühjahr dieses Jahres auf dem Markt erschienen ist. Das Lernsystem ist in Kooperation des Fachbereichs Sprachen der Fachhochschule Köln mit einer englischen Solarenergie-Firma, einer Management Consulting Agentur und der Sprachenabteilung einer Londoner Hochschule entstanden
  16. Schmitz, K.-D.: Projektforschung und Infrastrukturen im Bereich der Terminologie : Wie kann die Wirtschaft davon profitieren? (2000) 0.01
    0.007601824 = product of:
      0.060814593 = sum of:
        0.060814593 = weight(_text_:unternehmen in 5568) [ClassicSimilarity], result of:
          0.060814593 = score(doc=5568,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.3521188 = fieldWeight in 5568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=5568)
      0.125 = coord(1/8)
    
    Abstract
    In der heutigen Informationsgesellschaft bieten sich der Industrie neue Perspektiven für Kommunikation und Handel auf dem europäischen und internationalen Markt; beide Märkte sind von einer großen sprachlichen, kulturellen und gesellschaftlichen Vielfalt geprägt. Uni Nutzen aus diesen neuen Möglichkeiten zu ziehen und um weiterhin konkurrenzfähig zu bleiben, muß die Industrie spezifische und adäquate Lösungen zur Überwindung der Sprachbarrieren finden. Voraussetzung hierfür ist die genaue Definition, systematische Ordnung und exakte Benennung der Begriffe innerhalb der jeweiligen Fachgebiete, in der eigenen Sprache ebenso wie in den Fremdsprachen. Genau dies sind die Themenbereiche, mit dem sich die Terminologiewissenschaft und die praktische Temninologiearbeit beschäftigen. Die Ergebnisse der Terminologiearbeit im Unternehmen beeinflussen Konstruktion, Produktion, Einkauf, Marketing und Verkauf, Vertragswesen, technische Dokumentation und Übersetzung
  17. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.01
    0.007601824 = product of:
      0.060814593 = sum of:
        0.060814593 = weight(_text_:unternehmen in 5629) [ClassicSimilarity], result of:
          0.060814593 = score(doc=5629,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.3521188 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
      0.125 = coord(1/8)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
  18. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.01
    0.007601824 = product of:
      0.060814593 = sum of:
        0.060814593 = weight(_text_:unternehmen in 2849) [ClassicSimilarity], result of:
          0.060814593 = score(doc=2849,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.3521188 = fieldWeight in 2849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
      0.125 = coord(1/8)
    
    Abstract
    Natural Language Classifier helfen Unternehmen zunehmend dabei die Flut von Textdaten zu überwinden. Aber diese Classifier, einmal trainiert, verlieren mit der Zeit ihre Nützlichkeit. Sie bleiben statisch, aber die zugrundeliegende Domäne der Textdaten verändert sich: Ihre Genauigkeit nimmt aufgrund eines Phänomens ab, das als Konzeptdrift bekannt ist. Die Frage ist ob Konzeptdrift durch die Ausgabe eines Classifiers zuverlässig erkannt werden kann, und falls ja: ist es möglich dem durch nachtrainieren des Classifiers entgegenzuwirken. Es wird eine System-Implementierung mittels Proof-of-Concept vorgestellt, bei der das Konfidenzmass des Classifiers zur Erkennung von Konzeptdrift verwendet wird. Der Classifier wird dann iterativ neu trainiert, indem er Stichproben mit niedrigem Konfidenzmass auswählt, sie korrigiert und im Trainingsset der nächsten Iteration verwendet. Die Leistung des Classifiers wird über die Zeit gemessen, und die Leistung des Systems beobachtet. Basierend darauf werden schließlich Empfehlungen gegeben, die sich bei der Implementierung solcher Systeme als nützlich erweisen können.
  19. Multi-source, multilingual information extraction and summarization (2013) 0.01
    0.0068345116 = product of:
      0.054676093 = sum of:
        0.054676093 = product of:
          0.10935219 = sum of:
            0.10935219 = weight(_text_:aufsatzsammlung in 978) [ClassicSimilarity], result of:
              0.10935219 = score(doc=978,freq=4.0), product of:
                0.21333472 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.032515142 = queryNorm
                0.51258504 = fieldWeight in 978, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=978)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    RSWK
    Natürlichsprachiges System / Information Extraction / Automatische Inhaltsanalyse / Zusammenfassung / Aufsatzsammlung
    Subject
    Natürlichsprachiges System / Information Extraction / Automatische Inhaltsanalyse / Zusammenfassung / Aufsatzsammlung
  20. Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia : Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000 Fachhochschule Köln (2000) 0.01
    0.0063348534 = product of:
      0.050678827 = sum of:
        0.050678827 = weight(_text_:unternehmen in 5527) [ClassicSimilarity], result of:
          0.050678827 = score(doc=5527,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.29343233 = fieldWeight in 5527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5527)
      0.125 = coord(1/8)
    
    Content
    Enthält die Beiträge: WRIGHT, S.E.: Leveraging terminology resources across application boundaries: accessing resources in future integrated environments; PALME, K.: E-Commerce: Verhindert Sprache Business-to-business?; RÜEGGER, R.: Die qualität der virtuellen Information als Wettbewerbsvorteil: Information im Internet ist Sprache - noch; SCHIRMER, K. u. J. HALLER: Zugang zu mehrsprachigen Nachrichten im Internet; WEISS, A. u. W. WIEDEN: Die Herstellung mehrsprachiger Informations- und Wissensressourcen in Unternehmen; FULFORD, H.: Monolingual or multilingual web sites? An exploratory study of UK SMEs; SCHMIDTKE-NIKELLA, M.: Effiziente Hypermediaentwicklung: Die Autorenentlastung durch eine Engine; SCHMIDT, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft; HELBIG, H. u.a.: Natürlichsprachlicher Zugang zu Informationsanbietern im Internet und zu lokalen Datenbanken; SIENEL, J. u.a.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts; ERBACH, G.: Sprachdialogsysteme für Telefondienste: Stand der Technik und zukünftige Entwicklungen; SUSEN, A.: Spracherkennung: Akteulle Einsatzmöglichkeiten im Bereich der Telekommunikation; BENZMÜLLER, R.: Logox WebSpeech: die neue Technologie für sprechende Internetseiten; JAARANEN, K. u.a.: Webtran tools for in-company language support; SCHMITZ, K.-D.: Projektforschung und Infrastrukturen im Bereich der Terminologie: Wie kann die Wirtschaft davon profitieren?; SCHRÖTER, F. u. U. MEYER: Entwicklung sprachlicher Handlungskompetenz in englisch mit hilfe eines Multimedia-Sprachlernsystems; KLEIN, A.: Der Einsatz von Sprachverarbeitungstools beim Sprachenlernen im Intranet; HAUER, M.: Knowledge Management braucht Terminologie Management; HEYER, G. u.a.: Texttechnologische Anwendungen am Beispiel Text Mining

Years

Languages

  • e 40
  • d 28
  • m 1
  • More… Less…

Types

  • a 49
  • m 11
  • s 9
  • el 7
  • x 3
  • p 2
  • d 1
  • More… Less…

Subjects

Classifications