Search (83 results, page 1 of 5)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.23
    0.22767583 = product of:
      0.30356777 = sum of:
        0.07132846 = product of:
          0.21398538 = sum of:
            0.21398538 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.21398538 = score(doc=562,freq=2.0), product of:
                0.3807447 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04490967 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.21398538 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.21398538 = score(doc=562,freq=2.0), product of:
            0.3807447 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04490967 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.01825392 = product of:
          0.03650784 = sum of:
            0.03650784 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.03650784 = score(doc=562,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.14
    0.14265692 = product of:
      0.28531384 = sum of:
        0.07132846 = product of:
          0.21398538 = sum of:
            0.21398538 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.21398538 = score(doc=862,freq=2.0), product of:
                0.3807447 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04490967 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.21398538 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.21398538 = score(doc=862,freq=2.0), product of:
            0.3807447 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04490967 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(2/4)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.12
    0.11611965 = product of:
      0.2322393 = sum of:
        0.21398538 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.21398538 = score(doc=563,freq=2.0), product of:
            0.3807447 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04490967 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.01825392 = product of:
          0.03650784 = sum of:
            0.03650784 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.03650784 = score(doc=563,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Zimmermann, H.H.: Wortrelationierung in der Sprachtechnik : Stilhilfen, Retrievalhilfen, Übersetzungshilfen (1992) 0.07
    0.068661295 = product of:
      0.27464518 = sum of:
        0.27464518 = weight(_text_:kognitive in 1372) [ClassicSimilarity], result of:
          0.27464518 = score(doc=1372,freq=2.0), product of:
            0.3050091 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.04490967 = queryNorm
            0.90044916 = fieldWeight in 1372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.09375 = fieldNorm(doc=1372)
      0.25 = coord(1/4)
    
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  5. Luckhardt, H.-D.: Klassifikationen und Thesauri für automatische Terminologie-Unterstützung, maschinelle Übersetzung und computergestützte Übersetzung (1992) 0.06
    0.057217743 = product of:
      0.22887097 = sum of:
        0.22887097 = weight(_text_:kognitive in 1371) [ClassicSimilarity], result of:
          0.22887097 = score(doc=1371,freq=2.0), product of:
            0.3050091 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.04490967 = queryNorm
            0.75037426 = fieldWeight in 1371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.078125 = fieldNorm(doc=1371)
      0.25 = coord(1/4)
    
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  6. Natural language processing and speech technology : Results of the 3rd KONVENS Conference, Bielefeld, October 1996 (1996) 0.03
    0.034330647 = product of:
      0.13732259 = sum of:
        0.13732259 = weight(_text_:kognitive in 7291) [ClassicSimilarity], result of:
          0.13732259 = score(doc=7291,freq=2.0), product of:
            0.3050091 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.04490967 = queryNorm
            0.45022458 = fieldWeight in 7291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.046875 = fieldNorm(doc=7291)
      0.25 = coord(1/4)
    
    Content
    Enthält u.a. die Beiträge: HILDEBRANDT, B. u.a.: Kognitive Modellierung von Sprach- und Bildverstehen; KELLER, F.: How do humans deal with ungrammatical input? Experimental evidence and computational modelling; MARX, J:: Die 'Computer-Talk-These' in der Sprachgenerierung: Hinweise zur Gestaltung natürlichsprachlicher Zustandsanzeigen in multimodalen Informationssystemen; SCHULTZ, T. u. H. SOLTAU: Automatische Identifizierung spontan gesprochener Sprachen mit neuronalen Netzen; WAUSCHKUHN, O.: Ein Werkzeug zur partiellen syntaktischen Analyse deutscher Textkorpora; LEZIUS, W., R. RAPP u. M. WETTLER: A morphology-system and part-of-speech tagger for German; KONRAD, K. u.a.: CLEARS: ein Werkzeug für Ausbildung und Forschung in der Computerlinguistik
  7. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.03
    0.028318234 = product of:
      0.113272935 = sum of:
        0.113272935 = sum of:
          0.08893438 = weight(_text_:entwicklung in 4217) [ClassicSimilarity], result of:
            0.08893438 = score(doc=4217,freq=10.0), product of:
              0.20103875 = queryWeight, product of:
                4.4765134 = idf(docFreq=1366, maxDocs=44218)
                0.04490967 = queryNorm
              0.44237432 = fieldWeight in 4217, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.4765134 = idf(docFreq=1366, maxDocs=44218)
                0.03125 = fieldNorm(doc=4217)
          0.024338562 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
            0.024338562 = score(doc=4217,freq=2.0), product of:
              0.15726602 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04490967 = queryNorm
              0.15476047 = fieldWeight in 4217, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=4217)
      0.25 = coord(1/4)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  8. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.02
    0.020034758 = product of:
      0.08013903 = sum of:
        0.08013903 = sum of:
          0.04971583 = weight(_text_:entwicklung in 5557) [ClassicSimilarity], result of:
            0.04971583 = score(doc=5557,freq=2.0), product of:
              0.20103875 = queryWeight, product of:
                4.4765134 = idf(docFreq=1366, maxDocs=44218)
                0.04490967 = queryNorm
              0.24729475 = fieldWeight in 5557, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4765134 = idf(docFreq=1366, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5557)
          0.030423203 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
            0.030423203 = score(doc=5557,freq=2.0), product of:
              0.15726602 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04490967 = queryNorm
              0.19345059 = fieldWeight in 5557, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5557)
      0.25 = coord(1/4)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
  9. Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005) 0.02
    0.017165324 = product of:
      0.068661295 = sum of:
        0.068661295 = weight(_text_:kognitive in 3578) [ClassicSimilarity], result of:
          0.068661295 = score(doc=3578,freq=2.0), product of:
            0.3050091 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.04490967 = queryNorm
            0.22511229 = fieldWeight in 3578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3578)
      0.25 = coord(1/4)
    
    Content
    Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
  10. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.01
    0.01402433 = product of:
      0.05609732 = sum of:
        0.05609732 = sum of:
          0.03480108 = weight(_text_:entwicklung in 5759) [ClassicSimilarity], result of:
            0.03480108 = score(doc=5759,freq=2.0), product of:
              0.20103875 = queryWeight, product of:
                4.4765134 = idf(docFreq=1366, maxDocs=44218)
                0.04490967 = queryNorm
              0.17310633 = fieldWeight in 5759, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4765134 = idf(docFreq=1366, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5759)
          0.021296242 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
            0.021296242 = score(doc=5759,freq=2.0), product of:
              0.15726602 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04490967 = queryNorm
              0.1354154 = fieldWeight in 5759, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5759)
      0.25 = coord(1/4)
    
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  11. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.01
    0.012916552 = product of:
      0.051666208 = sum of:
        0.051666208 = product of:
          0.103332415 = sum of:
            0.103332415 = weight(_text_:entwicklung in 5981) [ClassicSimilarity], result of:
              0.103332415 = score(doc=5981,freq=6.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.51399255 = fieldWeight in 5981, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5981)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
  12. Gerstenkorn, A.: Indexierung mit Nominalgruppen (1980) 0.01
    0.012428957 = product of:
      0.04971583 = sum of:
        0.04971583 = product of:
          0.09943166 = sum of:
            0.09943166 = weight(_text_:entwicklung in 6685) [ClassicSimilarity], result of:
              0.09943166 = score(doc=6685,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.4945895 = fieldWeight in 6685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6685)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Indexierung mit Nominalgruppen ist eine konsequente Fortsetzung der Entwicklung von der gleichordnenden zur syntaktischen Indexierung. Nominalgruppen eignen sich besonders zur Bezeichnung komplexer Begriffe (Themen) und sind benutzerfreundlich. Bei einer automatischen Indexierung mit Nominalgruppen sind keine vollständigen Satzanalysen nötig, auch Systeme mit einem partiellen Parser liefern brauchbare Ergebnisse. Das Problem eines Retrieval mit Nominalgruppen ist noch zu lösen
  13. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023) 0.01
    0.012428957 = product of:
      0.04971583 = sum of:
        0.04971583 = product of:
          0.09943166 = sum of:
            0.09943166 = weight(_text_:entwicklung in 1051) [ClassicSimilarity], result of:
              0.09943166 = score(doc=1051,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.4945895 = fieldWeight in 1051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1051)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  14. Warner, A.J.: Natural language processing (1987) 0.01
    0.012169281 = product of:
      0.048677124 = sum of:
        0.048677124 = product of:
          0.09735425 = sum of:
            0.09735425 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.09735425 = score(doc=337,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  15. McMahon, J.G.; Smith, F.J.: Improved statistical language model performance with automatic generated word hierarchies (1996) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 3164) [ClassicSimilarity], result of:
              0.08518497 = score(doc=3164,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 3164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3164)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Computational linguistics. 22(1996) no.2, S.217-248
  16. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.08518497 = score(doc=4506,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    8.10.2000 11:52:22
  17. Somers, H.: Example-based machine translation : Review article (1999) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 6672) [ClassicSimilarity], result of:
              0.08518497 = score(doc=6672,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 6672, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6672)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  18. New tools for human translators (1997) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 1179) [ClassicSimilarity], result of:
              0.08518497 = score(doc=1179,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1179)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  19. Baayen, R.H.; Lieber, H.: Word frequency distributions and lexical semantics (1997) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 3117) [ClassicSimilarity], result of:
              0.08518497 = score(doc=3117,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 3117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3117)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    28. 2.1999 10:48:22
  20. ¬Der Student aus dem Computer (2023) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.08518497 = score(doc=1079,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    27. 1.2023 16:22:55

Years

Languages

  • d 43
  • e 38
  • m 4

Types

  • a 57
  • m 14
  • el 11
  • s 7
  • x 3
  • d 2
  • p 2
  • More… Less…

Classifications