Search (157 results, page 1 of 8)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.32
    0.32237527 = product of:
      0.5158004 = sum of:
        0.031674616 = product of:
          0.15837307 = sum of:
            0.15837307 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.15837307 = score(doc=562,freq=2.0), product of:
                0.28179356 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03323817 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.15837307 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15837307 = score(doc=562,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15837307 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15837307 = score(doc=562,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15837307 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15837307 = score(doc=562,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.009006626 = product of:
          0.027019877 = sum of:
            0.027019877 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.027019877 = score(doc=562,freq=2.0), product of:
                0.1163944 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03323817 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.25
    0.2533969 = product of:
      0.5067938 = sum of:
        0.031674616 = product of:
          0.15837307 = sum of:
            0.15837307 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.15837307 = score(doc=862,freq=2.0), product of:
                0.28179356 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03323817 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.2 = coord(1/5)
        0.15837307 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15837307 = score(doc=862,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15837307 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15837307 = score(doc=862,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15837307 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15837307 = score(doc=862,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(4/8)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.24
    0.24206293 = product of:
      0.48412585 = sum of:
        0.15837307 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15837307 = score(doc=563,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15837307 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15837307 = score(doc=563,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15837307 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15837307 = score(doc=563,freq=2.0), product of:
            0.28179356 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03323817 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009006626 = product of:
          0.027019877 = sum of:
            0.027019877 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.027019877 = score(doc=563,freq=2.0), product of:
                0.1163944 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03323817 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Schulz, A.: Motivierte Maschinen : Sprachcomputer (2002) 0.06
    0.06381583 = product of:
      0.25526333 = sum of:
        0.13775788 = weight(_text_:geist in 1309) [ClassicSimilarity], result of:
          0.13775788 = score(doc=1309,freq=2.0), product of:
            0.20357491 = queryWeight, product of:
              6.124733 = idf(docFreq=262, maxDocs=44218)
              0.03323817 = queryNorm
            0.6766938 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.124733 = idf(docFreq=262, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
        0.11750546 = weight(_text_:gehirn in 1309) [ClassicSimilarity], result of:
          0.11750546 = score(doc=1309,freq=2.0), product of:
            0.1880161 = queryWeight, product of:
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.03323817 = queryNorm
            0.6249755 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.078125 = fieldNorm(doc=1309)
      0.25 = coord(2/8)
    
    Source
    Gehirn und Geist: Das Magazin für Hirnforschung und Psychologie. 2002, H.3, S.54-56
  5. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.04
    0.038380243 = product of:
      0.102347314 = sum of:
        0.0046311636 = product of:
          0.023155818 = sum of:
            0.023155818 = weight(_text_:problem in 4044) [ClassicSimilarity], result of:
              0.023155818 = score(doc=4044,freq=2.0), product of:
                0.1410789 = queryWeight, product of:
                  4.244485 = idf(docFreq=1723, maxDocs=44218)
                  0.03323817 = queryNorm
                0.1641338 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.244485 = idf(docFreq=1723, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.2 = coord(1/5)
        0.09246229 = weight(_text_:maschine in 4044) [ClassicSimilarity], result of:
          0.09246229 = score(doc=4044,freq=6.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.43164888 = fieldWeight in 4044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.0052538654 = product of:
          0.015761595 = sum of:
            0.015761595 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.015761595 = score(doc=4044,freq=2.0), product of:
                0.1163944 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03323817 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  6. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.03
    0.03014505 = product of:
      0.2411604 = sum of:
        0.2411604 = weight(_text_:maschine in 1714) [ClassicSimilarity], result of:
          0.2411604 = score(doc=1714,freq=20.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            1.1258278 = fieldWeight in 1714, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
      0.125 = coord(1/8)
    
    Classification
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RSWK
    Sozialverhalten / Mensch-Maschine-Kommunikation
    Mensch-Maschine-Kommunikation / Sprache (BVB)
    RVK
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Subject
    Sozialverhalten / Mensch-Maschine-Kommunikation
    Mensch-Maschine-Kommunikation / Sprache (BVB)
  7. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.03
    0.029640239 = product of:
      0.118560955 = sum of:
        0.107850194 = weight(_text_:maschine in 566) [ClassicSimilarity], result of:
          0.107850194 = score(doc=566,freq=4.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.50348544 = fieldWeight in 566, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.010710761 = product of:
          0.032132283 = sum of:
            0.032132283 = weight(_text_:29 in 566) [ClassicSimilarity], result of:
              0.032132283 = score(doc=566,freq=4.0), product of:
                0.116921484 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03323817 = queryNorm
                0.2748193 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Date
    25.10.2007 9:51:29
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  8. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.03
    0.028616536 = product of:
      0.114466146 = sum of:
        0.006615948 = product of:
          0.03307974 = sum of:
            0.03307974 = weight(_text_:problem in 2380) [ClassicSimilarity], result of:
              0.03307974 = score(doc=2380,freq=2.0), product of:
                0.1410789 = queryWeight, product of:
                  4.244485 = idf(docFreq=1723, maxDocs=44218)
                  0.03323817 = queryNorm
                0.23447686 = fieldWeight in 2380, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.244485 = idf(docFreq=1723, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2380)
          0.2 = coord(1/5)
        0.107850194 = weight(_text_:maschine in 2380) [ClassicSimilarity], result of:
          0.107850194 = score(doc=2380,freq=4.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.50348544 = fieldWeight in 2380, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.25 = coord(2/8)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
    RSWK
    Mensch-Maschine-Kommunikation
    Subject
    Mensch-Maschine-Kommunikation
  9. Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016) 0.03
    0.027002867 = product of:
      0.10801147 = sum of:
        0.04700218 = weight(_text_:gehirn in 2941) [ClassicSimilarity], result of:
          0.04700218 = score(doc=2941,freq=2.0), product of:
            0.1880161 = queryWeight, product of:
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.03323817 = queryNorm
            0.2499902 = fieldWeight in 2941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.03125 = fieldNorm(doc=2941)
        0.061009284 = weight(_text_:maschine in 2941) [ClassicSimilarity], result of:
          0.061009284 = score(doc=2941,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.2848144 = fieldWeight in 2941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03125 = fieldNorm(doc=2941)
      0.25 = coord(2/8)
    
    Content
    "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
    SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."
  10. Krause, J.: Mensch-Maschine-Interaktion in natürlicher Sprache : Evaluierungsstudien zu praxisorientierten Frage-Antwort-Systemen und ihre Methodik (1982) 0.03
    0.026691562 = product of:
      0.21353249 = sum of:
        0.21353249 = weight(_text_:maschine in 8964) [ClassicSimilarity], result of:
          0.21353249 = score(doc=8964,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.9968504 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
      0.125 = coord(1/8)
    
  11. Minsky, M.L.: Materie, Geist, Modell (1977) 0.02
    0.024107628 = product of:
      0.19286102 = sum of:
        0.19286102 = weight(_text_:geist in 5547) [ClassicSimilarity], result of:
          0.19286102 = score(doc=5547,freq=2.0), product of:
            0.20357491 = queryWeight, product of:
              6.124733 = idf(docFreq=262, maxDocs=44218)
              0.03323817 = queryNorm
            0.94737124 = fieldWeight in 5547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.124733 = idf(docFreq=262, maxDocs=44218)
              0.109375 = fieldNorm(doc=5547)
      0.125 = coord(1/8)
    
  12. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.02
    0.02094178 = product of:
      0.08376712 = sum of:
        0.0762616 = weight(_text_:maschine in 5557) [ClassicSimilarity], result of:
          0.0762616 = score(doc=5557,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.35601798 = fieldWeight in 5557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.007505522 = product of:
          0.022516565 = sum of:
            0.022516565 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.022516565 = score(doc=5557,freq=2.0), product of:
                0.1163944 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03323817 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
  13. Weingarten, R.: ¬Die Verkabelung der Sprache : Grenzen der Technisierung von Kommunikation (1989) 0.02
    0.018873785 = product of:
      0.15099028 = sum of:
        0.15099028 = weight(_text_:maschine in 7156) [ClassicSimilarity], result of:
          0.15099028 = score(doc=7156,freq=4.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.70487964 = fieldWeight in 7156, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
      0.125 = coord(1/8)
    
    RSWK
    Mensch-Maschine-Kommunikation
    Subject
    Mensch-Maschine-Kommunikation
  14. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.02
    0.016564563 = product of:
      0.06625825 = sum of:
        0.05875273 = weight(_text_:gehirn in 734) [ClassicSimilarity], result of:
          0.05875273 = score(doc=734,freq=2.0), product of:
            0.1880161 = queryWeight, product of:
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.03323817 = queryNorm
            0.31248775 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.007505522 = product of:
          0.022516565 = sum of:
            0.022516565 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.022516565 = score(doc=734,freq=2.0), product of:
                0.1163944 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03323817 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  15. Hausser, R.: Grundlagen der Computerlinguistik : Mensch-Maschine-Kommunikation in natürlicher Sprache; mit 772 Übungen (2000) 0.02
    0.015252321 = product of:
      0.12201857 = sum of:
        0.12201857 = weight(_text_:maschine in 5352) [ClassicSimilarity], result of:
          0.12201857 = score(doc=5352,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.5696288 = fieldWeight in 5352, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0625 = fieldNorm(doc=5352)
      0.125 = coord(1/8)
    
  16. Wilhelm, K.: ¬Die Macht der Grammatik (2000) 0.01
    0.014688183 = product of:
      0.11750546 = sum of:
        0.11750546 = weight(_text_:gehirn in 5510) [ClassicSimilarity], result of:
          0.11750546 = score(doc=5510,freq=2.0), product of:
            0.1880161 = queryWeight, product of:
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.03323817 = queryNorm
            0.6249755 = fieldWeight in 5510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6566324 = idf(docFreq=419, maxDocs=44218)
              0.078125 = fieldNorm(doc=5510)
      0.125 = coord(1/8)
    
    Abstract
    Mit neuen bildgebenden Verfahren können Forscher dem Gehirn zusehen, wie es Sprache verarbeitet. Dabei zeigt sich: Nicht eine möglichst große Vielfalt von Wörtern, sondern erst deren sinnvolle Verknüpfung zu Sätzen, Syntax, bildet den Kern der menschlichen Sprache
  17. Wagner, J.: Mensch - Computer - Interaktion : Sprachwissenschaftliche Aspekte (2002) 0.01
    0.0114392415 = product of:
      0.09151393 = sum of:
        0.09151393 = weight(_text_:maschine in 1102) [ClassicSimilarity], result of:
          0.09151393 = score(doc=1102,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.4272216 = fieldWeight in 1102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
      0.125 = coord(1/8)
    
    Abstract
    Die Arbeit zeigt, dass die vielerorts beklagten Probleme von Benutzern mit Computern in hohem Maße durch die (zum Teil mangelhafte) sprachliche Gestaltung der jeweiligen Interfaces bedingt sind. Es wird die These vertreten, dass verbale Interface-Elemente trotz des zunächst augenfälligen hohen grafischen Aufwands von Benutzeroberflächen für den Aufbau von Sinn und interaktiver Ordnung bei der Bedienung eines hinreichend komplexen Systems als primär gelten können. Als Basis der Analyse dienen vor allem Aufnahmen der Dialoge von jeweils zwei Benutzern bei der gemeinsamen Arbeit am Computer in Verbindung mit entsprechenden Aufzeichnungen der Bildschirminhalte. Die Arbeit versteht sich als ein Plädoyer für mehr linguistische Kompetenz in der Softwaregestaltung wie auch für stärkere Investitionen der Industrie in die sprachliche Gestaltung von Mensch-Maschine-Schnittstellen.
  18. ¬Die Bibel als Stilkompass (2019) 0.01
    0.0095327 = product of:
      0.0762616 = sum of:
        0.0762616 = weight(_text_:maschine in 5331) [ClassicSimilarity], result of:
          0.0762616 = score(doc=5331,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.35601798 = fieldWeight in 5331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5331)
      0.125 = coord(1/8)
    
    Content
    "Die Heilige Schrift gibt es nicht nur in mehreren hundert Sprachen, sondern oft innerhalb eines Sprachraums auch in mehreren Varianten. Britische Leser konnen unter anderem zwischen der bewusst sehr einfach geschriebenen Bible in Basic English und der linguistisch komplexen King James Version aus dem 17. Jahrhundert wahlen. Die Fassungen unterscheiden sich in Satzlänge, Wortwahl sowie Förmlichkeit und sprechen so Menschen aus verschiedenen Kulturen und mit unterschiedlichem Bildungsstand an. Ein Team um Keith Carlson vom Dartmouth College will die insgesamt 34 englischsprachigen Versionen der Bibel nun dazu nutzen, um Computern unterschiedliche Stilformen beizubringen Bisher übersetzen entsprechende Programme zwar Fremdsprachen, zum Teil mit beeindruckender Genauigkeit. Oft scheitern sie aber, wenn sie einen Text zielsicher stilistisch verändern sollen, vor allem wenn es dabei um mehr als ein einzelnes Merkmal wie beispielsweise die Komplexität geht. Die Bibel eigne sich mit ihren rund 31 000 Versen wie kein anderes Werk für das Training von Übersetzungsprogrammen, argumentiert das Team um Carlson. Schließlich seien alle Fassungen sehr gewissenhaft von Menschen übersetzt und außerdem Vers für Vers durchnummeriert worden. Das erleichtere einer Maschine die Zuordnung und sei bei anderen umfangreichen Schriftquellen wie dem Werk von William Shakespeare oder der Wikipedia nicht zwangsläufig der Fall. Als erste Demonstration haben die Forscher zwei Algorithmen, von denen einer auf neuronalen Netzen basierte, mit acht frei im Internet verfügbaren Bibelversionen trainiert. Anschließend testeten sie, wie gut die beiden Programme Verse der Vorlagen in einen gewünschten Stil übertrugen, ohne dass die Software auf die anvisierte Fassung der Bibel zugreifen konnte. Insgesamt seien die automatischen Übersetzer dem Ziel schon recht nahegekommen, berichten die Forscher. Sie sehen ihre Arbeit aber erst als Startpunkt bei der Entwicklung einer künstlichen Intelligenz, die souverän zwischen verschiedenen Sprachstilen wechseln kann."
  19. Wenzel, F.: Semantische Eingrenzung im Freitext-Retrieval auf der Basis morphologischer Segmentierungen (1980) 0.01
    0.0070948 = product of:
      0.0283792 = sum of:
        0.013231896 = product of:
          0.06615948 = sum of:
            0.06615948 = weight(_text_:problem in 2037) [ClassicSimilarity], result of:
              0.06615948 = score(doc=2037,freq=2.0), product of:
                0.1410789 = queryWeight, product of:
                  4.244485 = idf(docFreq=1723, maxDocs=44218)
                  0.03323817 = queryNorm
                0.46895373 = fieldWeight in 2037, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.244485 = idf(docFreq=1723, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2037)
          0.2 = coord(1/5)
        0.015147304 = product of:
          0.04544191 = sum of:
            0.04544191 = weight(_text_:29 in 2037) [ClassicSimilarity], result of:
              0.04544191 = score(doc=2037,freq=2.0), product of:
                0.116921484 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03323817 = queryNorm
                0.38865322 = fieldWeight in 2037, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2037)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    The basic problem in freetext retrieval is that the retrieval language is not properly adapted to that of the author. Morphological segmentation, where words with the same root are grouped together in the inverted file, is a good eliminator of noise and information loss, providing high recall but low precision
    Source
    Nachrichten für Dokumentation. 31(1980) H.1, S.29-35
  20. Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005) 0.01
    0.0057196207 = product of:
      0.045756966 = sum of:
        0.045756966 = weight(_text_:maschine in 3578) [ClassicSimilarity], result of:
          0.045756966 = score(doc=3578,freq=2.0), product of:
            0.21420717 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.03323817 = queryNorm
            0.2136108 = fieldWeight in 3578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3578)
      0.125 = coord(1/8)
    
    Content
    INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -

Years

Languages

  • e 103
  • d 50
  • ru 3
  • m 1
  • More… Less…

Types

  • a 128
  • el 18
  • m 16
  • s 5
  • x 4
  • d 2
  • p 2
  • More… Less…

Classifications