Search (26 results, page 1 of 2)

  • × theme_ss:"Computerlinguistik"
  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.12
    0.11562679 = product of:
      0.28906697 = sum of:
        0.24693725 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
          0.24693725 = score(doc=562,freq=2.0), product of:
            0.43937603 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.051825367 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.04212973 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
          0.04212973 = score(doc=562,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.23214069 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
      0.4 = coord(2/5)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Computerunterstützte Textanalyse (2001) 0.02
    0.023319827 = product of:
      0.116599135 = sum of:
        0.116599135 = weight(_text_:40 in 5646) [ClassicSimilarity], result of:
          0.116599135 = score(doc=5646,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.5899198 = fieldWeight in 5646, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.109375 = fieldNorm(doc=5646)
      0.2 = coord(1/5)
    
    Source
    iX. 2001, H.6, S.40
  3. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.02
    0.021490185 = product of:
      0.05372546 = sum of:
        0.029149784 = weight(_text_:40 in 5759) [ClassicSimilarity], result of:
          0.029149784 = score(doc=5759,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.14747995 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.024575677 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
          0.024575677 = score(doc=5759,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.1354154 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
      0.4 = coord(2/5)
    
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  4. Vilar, P.; Dimec, J.: Krnjenje kot osnova nekaterih nekonvencionalnih metod poizvedovanja (2000) 0.02
    0.019988423 = product of:
      0.09994212 = sum of:
        0.09994212 = weight(_text_:40 in 6331) [ClassicSimilarity], result of:
          0.09994212 = score(doc=6331,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.5056456 = fieldWeight in 6331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.09375 = fieldNorm(doc=6331)
      0.2 = coord(1/5)
    
    Date
    28. 3.2002 10:01:40
  5. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.02
    0.016851893 = product of:
      0.08425946 = sum of:
        0.08425946 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
          0.08425946 = score(doc=4888,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.46428138 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
      0.2 = coord(1/5)
    
    Date
    1. 3.2013 14:56:22
  6. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.02
    0.016851893 = product of:
      0.08425946 = sum of:
        0.08425946 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
          0.08425946 = score(doc=5429,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.46428138 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
      0.2 = coord(1/5)
    
    Source
    c't. 2000, H.22, S.230-231
  7. Sokirko, A.V.: Obzor zarubezhnykh sistem avtomaticheskoi obrabotki teksta, ispol'zuyushchikh poverkhnosto-semanticheskoe predstavlenie, i mashinnykh sematicheskikh slovarei (2000) 0.02
    0.01665702 = product of:
      0.0832851 = sum of:
        0.0832851 = weight(_text_:40 in 8870) [ClassicSimilarity], result of:
          0.0832851 = score(doc=8870,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.4213713 = fieldWeight in 8870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.078125 = fieldNorm(doc=8870)
      0.2 = coord(1/5)
    
    Date
    27. 3.2002 10:06:40
  8. Egger, W.: Helferlein für jedermann : Elektronische Wörterbücher (2004) 0.02
    0.01665702 = product of:
      0.0832851 = sum of:
        0.0832851 = weight(_text_:40 in 1501) [ClassicSimilarity], result of:
          0.0832851 = score(doc=1501,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.4213713 = fieldWeight in 1501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.078125 = fieldNorm(doc=1501)
      0.2 = coord(1/5)
    
    Source
    CD-Info. 2004, H.12, S.40-41
  9. Kuhlmann, U.; Monnerjahn, P.: Sprache auf Knopfdruck : Sieben automatische Übersetzungsprogramme im Test (2000) 0.01
    0.0140432445 = product of:
      0.07021622 = sum of:
        0.07021622 = weight(_text_:22 in 5428) [ClassicSimilarity], result of:
          0.07021622 = score(doc=5428,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.38690117 = fieldWeight in 5428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=5428)
      0.2 = coord(1/5)
    
    Source
    c't. 2000, H.22, S.220-229
  10. Frobese, D.T.: Klassifikationsaufgaben mit der SENTRAX : Konkreter Fall: Automatische Detektion von SPAM (2006) 0.01
    0.013325617 = product of:
      0.06662808 = sum of:
        0.06662808 = weight(_text_:40 in 5980) [ClassicSimilarity], result of:
          0.06662808 = score(doc=5980,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.33709705 = fieldWeight in 5980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.0625 = fieldNorm(doc=5980)
      0.2 = coord(1/5)
    
    Date
    26.12.2011 13:12:40
  11. L'Homme, D.; L'Homme, M.-C.; Lemay, C.: Benchmarking the performance of two Part-of-Speech (POS) taggers for terminological purposes (2002) 0.01
    0.009994212 = product of:
      0.04997106 = sum of:
        0.04997106 = weight(_text_:40 in 1855) [ClassicSimilarity], result of:
          0.04997106 = score(doc=1855,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.2528228 = fieldWeight in 1855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.046875 = fieldNorm(doc=1855)
      0.2 = coord(1/5)
    
    Date
    23.12.2006 18:36:40
  12. Sebastiani, F.: Machine learning in automated text categorization (2002) 0.01
    0.009994212 = product of:
      0.04997106 = sum of:
        0.04997106 = weight(_text_:40 in 3389) [ClassicSimilarity], result of:
          0.04997106 = score(doc=3389,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.2528228 = fieldWeight in 3389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.046875 = fieldNorm(doc=3389)
      0.2 = coord(1/5)
    
    Date
    5. 5.2005 10:40:52
  13. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.01
    0.009930073 = product of:
      0.049650364 = sum of:
        0.049650364 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
          0.049650364 = score(doc=2541,freq=4.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.27358043 = fieldWeight in 2541, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2541)
      0.2 = coord(1/5)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  14. Hammwöhner, R.: TransRouter revisited : Decision support in the routing of translation projects (2000) 0.01
    0.009830271 = product of:
      0.049151354 = sum of:
        0.049151354 = weight(_text_:22 in 5483) [ClassicSimilarity], result of:
          0.049151354 = score(doc=5483,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.2708308 = fieldWeight in 5483, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5483)
      0.2 = coord(1/5)
    
    Date
    10.12.2000 18:22:35
  15. Schneider, J.W.; Borlund, P.: ¬A bibliometric-based semiautomatic approach to identification of candidate thesaurus terms : parsing and filtering of noun phrases from citation contexts (2005) 0.01
    0.009830271 = product of:
      0.049151354 = sum of:
        0.049151354 = weight(_text_:22 in 156) [ClassicSimilarity], result of:
          0.049151354 = score(doc=156,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.2708308 = fieldWeight in 156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=156)
      0.2 = coord(1/5)
    
    Date
    8. 3.2007 19:55:22
  16. Paolillo, J.C.: Linguistics and the information sciences (2009) 0.01
    0.009830271 = product of:
      0.049151354 = sum of:
        0.049151354 = weight(_text_:22 in 3840) [ClassicSimilarity], result of:
          0.049151354 = score(doc=3840,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.2708308 = fieldWeight in 3840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3840)
      0.2 = coord(1/5)
    
    Date
    27. 8.2011 14:22:33
  17. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.009830271 = product of:
      0.049151354 = sum of:
        0.049151354 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
          0.049151354 = score(doc=4184,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.2708308 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
      0.2 = coord(1/5)
    
    Date
    22. 1.2011 10:38:28
  18. Bian, G.-W.; Chen, H.-H.: Cross-language information access to multilingual collections on the Internet (2000) 0.01
    0.008425946 = product of:
      0.04212973 = sum of:
        0.04212973 = weight(_text_:22 in 4436) [ClassicSimilarity], result of:
          0.04212973 = score(doc=4436,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.23214069 = fieldWeight in 4436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=4436)
      0.2 = coord(1/5)
    
    Date
    16. 2.2000 14:22:39
  19. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.008425946 = product of:
      0.04212973 = sum of:
        0.04212973 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
          0.04212973 = score(doc=1746,freq=2.0), product of:
            0.18148361 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.051825367 = queryNorm
            0.23214069 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
      0.2 = coord(1/5)
    
    Date
    22. 3.2015 9:17:30
  20. Peng, F.; Huang, X.: Machine learning for Asian language text classification (2007) 0.01
    0.00832851 = product of:
      0.04164255 = sum of:
        0.04164255 = weight(_text_:40 in 831) [ClassicSimilarity], result of:
          0.04164255 = score(doc=831,freq=2.0), product of:
            0.19765252 = queryWeight, product of:
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.051825367 = queryNorm
            0.21068566 = fieldWeight in 831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.813818 = idf(docFreq=2651, maxDocs=44218)
              0.0390625 = fieldNorm(doc=831)
      0.2 = coord(1/5)
    
    Date
    23.12.2007 13:40:31