Search (128 results, page 1 of 7)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.23
    0.23165837 = product of:
      0.30887783 = sum of:
        0.07257615 = product of:
          0.21772844 = sum of:
            0.21772844 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.21772844 = score(doc=562,freq=2.0), product of:
                0.3874047 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045695234 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.21772844 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.21772844 = score(doc=562,freq=2.0), product of:
            0.3874047 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.045695234 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.018573219 = product of:
          0.037146438 = sum of:
            0.037146438 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.037146438 = score(doc=562,freq=2.0), product of:
                0.16001692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045695234 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.15
    0.1451523 = product of:
      0.2903046 = sum of:
        0.07257615 = product of:
          0.21772844 = sum of:
            0.21772844 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.21772844 = score(doc=862,freq=2.0), product of:
                0.3874047 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045695234 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.21772844 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.21772844 = score(doc=862,freq=2.0), product of:
            0.3874047 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.045695234 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(2/4)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.12
    0.11815083 = product of:
      0.23630166 = sum of:
        0.21772844 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.21772844 = score(doc=563,freq=2.0), product of:
            0.3874047 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.045695234 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.018573219 = product of:
          0.037146438 = sum of:
            0.037146438 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.037146438 = score(doc=563,freq=2.0), product of:
                0.16001692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045695234 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.11
    0.11010443 = product of:
      0.22020885 = sum of:
        0.067554496 = weight(_text_:deutsche in 1746) [ClassicSimilarity], result of:
          0.067554496 = score(doc=1746,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.3130544 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.15265435 = sum of:
          0.11550791 = weight(_text_:sprache in 1746) [ClassicSimilarity], result of:
            0.11550791 = score(doc=1746,freq=4.0), product of:
              0.23727702 = queryWeight, product of:
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.045695234 = queryNorm
              0.48680615 = fieldWeight in 1746, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
          0.037146438 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.037146438 = score(doc=1746,freq=2.0), product of:
              0.16001692 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045695234 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  5. Wittek, B.R.: Schöne neue Abfragewelt : Datenbank-Zugangssysteme auf der Basis natürlicher Sprache (1994) 0.10
    0.099487275 = product of:
      0.19897455 = sum of:
        0.09007266 = weight(_text_:deutsche in 8791) [ClassicSimilarity], result of:
          0.09007266 = score(doc=8791,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.41740587 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
        0.108901896 = product of:
          0.21780379 = sum of:
            0.21780379 = weight(_text_:sprache in 8791) [ClassicSimilarity], result of:
              0.21780379 = score(doc=8791,freq=8.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                0.9179304 = fieldWeight in 8791, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.0625 = fieldNorm(doc=8791)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Kann die deutsche Sprache als Datenbankabfragesprache eingesetzt werden? Seit Jahrzehnten wurde diese Frage verneint, weil klare Kriterien für die Formalisierung natürlicher Sprache und Werkzeuge für eine kostengünstige Durchführung fehlten. Allerdings darf diese Frage wieder gestellt werden, seitdem Techniken für deren Formalisierung zunehmend zur Verfügung stehen. Dieser Artikel beschreibt, was auf dem Gebiet der natürlichen Sprache als Basis für die Datenbankabfrage heute schon möglich ist
  6. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.10
    0.099487275 = product of:
      0.19897455 = sum of:
        0.09007266 = weight(_text_:deutsche in 5356) [ClassicSimilarity], result of:
          0.09007266 = score(doc=5356,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.41740587 = fieldWeight in 5356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
        0.108901896 = product of:
          0.21780379 = sum of:
            0.21780379 = weight(_text_:sprache in 5356) [ClassicSimilarity], result of:
              0.21780379 = score(doc=5356,freq=8.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                0.9179304 = fieldWeight in 5356, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5356)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  7. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.07
    0.07461546 = product of:
      0.14923093 = sum of:
        0.067554496 = weight(_text_:deutsche in 5882) [ClassicSimilarity], result of:
          0.067554496 = score(doc=5882,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.3130544 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.08167642 = product of:
          0.16335285 = sum of:
            0.16335285 = weight(_text_:sprache in 5882) [ClassicSimilarity], result of:
              0.16335285 = score(doc=5882,freq=8.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                0.68844783 = fieldWeight in 5882, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5882)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
  8. dpa: 14 Forscher mit viel Geld angelockt : Wolfgang-Paul-Preis (2001) 0.07
    0.069144174 = product of:
      0.13828835 = sum of:
        0.067554496 = weight(_text_:deutsche in 6814) [ClassicSimilarity], result of:
          0.067554496 = score(doc=6814,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.3130544 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.07073386 = product of:
          0.14146772 = sum of:
            0.14146772 = weight(_text_:sprache in 6814) [ClassicSimilarity], result of:
              0.14146772 = score(doc=6814,freq=6.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                0.59621334 = fieldWeight in 6814, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6814)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Darin. "Die Sprachwissenschaftlerin Christiane Fellbaum (dpa-Bild) wird ihr Preisgeld für das an der Berlin-Brandenburgischen Akademie der Wissenschaften zu erstellende "Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts" einsetzen. Sie setzt mit ihrem Computer dort an, wo konventionelle Wörterbücher nicht mehr mithalten können. Sie stellt per Knopfdruck Wortverbindungen her, die eine Sprache so reich an Bildern und Vorstellungen - und damit einzigartig - machen. Ihr elektronisches Lexikon aus über 500 Millionen Wörtern soll später als Datenbank zugänglich sein. Seine Grundlage ist die deutsche Sprache der vergangenen hundert Jahre - ein repräsentativer Querschnitt, zusammengestellt aus Literatur, Zeitungsdeutsch, Fachbuchsprache, Werbetexten und niedergeschriebener Umgangssprache. Wo ein Wörterbuch heute nur ein Wort mit Synonymen oder wenigen Verwendungsmöglichkeiten präsentiert, spannt die Forscherin ein riesiges Netz von Wortverbindungen. Bei Christiane Fellbaums Systematik heißt es beispielsweise nicht nur "verlieren", sondern auch noch "den Faden" oder "die Geduld" verlieren - samt allen möglichen weiteren Kombinationen, die der Computer wie eine Suchmaschine in seinen gespeicherten Texten findet."
  9. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.06
    0.057418477 = product of:
      0.11483695 = sum of:
        0.09007266 = weight(_text_:deutsche in 1490) [ClassicSimilarity], result of:
          0.09007266 = score(doc=1490,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.41740587 = fieldWeight in 1490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.024764294 = product of:
          0.049528588 = sum of:
            0.049528588 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.049528588 = score(doc=1490,freq=2.0), product of:
                0.16001692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045695234 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    22. 3.2015 9:30:24
  10. Manhart, K.: Digitales Kauderwelsch : Online-Übersetzungsdienste (2004) 0.06
    0.05682279 = product of:
      0.11364558 = sum of:
        0.07961374 = weight(_text_:deutsche in 2077) [ClassicSimilarity], result of:
          0.07961374 = score(doc=2077,freq=4.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.36893815 = fieldWeight in 2077, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2077)
        0.034031842 = product of:
          0.068063684 = sum of:
            0.068063684 = weight(_text_:sprache in 2077) [ClassicSimilarity], result of:
              0.068063684 = score(doc=2077,freq=2.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                0.28685325 = fieldWeight in 2077, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2077)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Eine englische oder französische Website mal schnell ins Deutsche übersetzen - nichts einfacher als das. OnlineÜbersetzungsdienste versprechen den Sprachtransfer per Mausklick und zum Nulltarif. Doch was taugen sie wirklich? Online-Übersetzungsdienste wollen die Sprachbarriere im WWW beseitigen. Die automatischen Übersetzer versprechen, die E-Mail-Korrespondenz verständlich zu machen und das deutschsprachige Surfen in fremdsprachigen Webangeboten zu ermöglichen. Englische, spanische oder gar chinesische EMails und Websites können damit per Mausklick schnell in die eigene Sprache übertragen werden. Auch komplizierte englische Bedienungsanleitungen oder russische Nachrichten sollen für die Dienste kein Problem sein. Und der eine oder andere Homepage-Besitzer träumt davon, mit Hilfe der digitalen Übersetzungshelfer seine deutsche Website in perfektem Englisch online stellen zu können - in der Hoffung auf internationale Kontakte und höhere Besucherzahlen. Das klingt schön - doch die Realität sieht anders aus. Wer jemals einen solchen Dienst konsultiert hat, reibt sich meist verwundert die Augen über die gebotenen Ergebnisse. Schon einfache Sätze bereiten vielen Online-Über setzern Probleme-und sorgen unfreiwillig für Humor. Aus der CNN-Meldung "Iraq blast injures 31 U.S. troops" wird im Deutschen der Satz: "Der Irak Knall verletzt 31 Vereinigte Staaten Truppen." Sites mit schwierigem Satzbau können die Übersetzer oft nur unverständlich wiedergeben. Den Satz "The Slider is equipped with a brilliant color screen and sports an innovative design that slides open with a push of your thumb" übersetzt der bekannteste Online-Dolmetscher Babelfish mit folgendem Kauderwelsch: "Der Schweber wird mit einem leuchtenden Farbe Schirm ausgerüstet und ein erfinderisches Design sports, das geöffnetes mit einem Stoß Ihres Daumens schiebt." Solch dadaistische Texte muten alle Übersetzer ihren Nutzern zu.
  11. Ruge, G.: Sprache und Computer : Wortbedeutung und Termassoziation. Methoden zur automatischen semantischen Klassifikation (1995) 0.05
    0.050884783 = product of:
      0.20353913 = sum of:
        0.20353913 = sum of:
          0.15401055 = weight(_text_:sprache in 1534) [ClassicSimilarity], result of:
            0.15401055 = score(doc=1534,freq=4.0), product of:
              0.23727702 = queryWeight, product of:
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.045695234 = queryNorm
              0.64907485 = fieldWeight in 1534, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.0625 = fieldNorm(doc=1534)
          0.049528588 = weight(_text_:22 in 1534) [ClassicSimilarity], result of:
            0.049528588 = score(doc=1534,freq=2.0), product of:
              0.16001692 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045695234 = queryNorm
              0.30952093 = fieldWeight in 1534, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1534)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Knowledge organization 22(1995) no.3/4, S.182-184 (M.T. Rolland)
    Series
    Sprache und Computer; Bd.14
  12. Kuhlmann, U.; Monnerjahn, P.: Sprache auf Knopfdruck : Sieben automatische Übersetzungsprogramme im Test (2000) 0.05
    0.049509525 = product of:
      0.1980381 = sum of:
        0.1980381 = sum of:
          0.13612737 = weight(_text_:sprache in 5428) [ClassicSimilarity], result of:
            0.13612737 = score(doc=5428,freq=2.0), product of:
              0.23727702 = queryWeight, product of:
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.045695234 = queryNorm
              0.5737065 = fieldWeight in 5428, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.078125 = fieldNorm(doc=5428)
          0.061910734 = weight(_text_:22 in 5428) [ClassicSimilarity], result of:
            0.061910734 = score(doc=5428,freq=2.0), product of:
              0.16001692 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045695234 = queryNorm
              0.38690117 = fieldWeight in 5428, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5428)
      0.25 = coord(1/4)
    
    Source
    c't. 2000, H.22, S.220-229
  13. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.05
    0.049419165 = product of:
      0.19767666 = sum of:
        0.19767666 = sum of:
          0.1667213 = weight(_text_:sprache in 734) [ClassicSimilarity], result of:
            0.1667213 = score(doc=734,freq=12.0), product of:
              0.23727702 = queryWeight, product of:
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.045695234 = queryNorm
              0.7026441 = fieldWeight in 734, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.0390625 = fieldNorm(doc=734)
          0.030955367 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
            0.030955367 = score(doc=734,freq=2.0), product of:
              0.16001692 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045695234 = queryNorm
              0.19345059 = fieldWeight in 734, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=734)
      0.25 = coord(1/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  14. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.04
    0.04177068 = product of:
      0.16708273 = sum of:
        0.16708273 = sum of:
          0.13612737 = weight(_text_:sprache in 5557) [ClassicSimilarity], result of:
            0.13612737 = score(doc=5557,freq=8.0), product of:
              0.23727702 = queryWeight, product of:
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.045695234 = queryNorm
              0.5737065 = fieldWeight in 5557, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.192599 = idf(docFreq=667, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5557)
          0.030955367 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
            0.030955367 = score(doc=5557,freq=2.0), product of:
              0.16001692 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045695234 = queryNorm
              0.19345059 = fieldWeight in 5557, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5557)
      0.25 = coord(1/4)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  15. Weingarten, R.: ¬Die Verkabelung der Sprache : Grenzen der Technisierung von Kommunikation (1989) 0.04
    0.037666347 = product of:
      0.15066539 = sum of:
        0.15066539 = product of:
          0.30133078 = sum of:
            0.30133078 = weight(_text_:sprache in 7156) [ClassicSimilarity], result of:
              0.30133078 = score(doc=7156,freq=20.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                1.2699535 = fieldWeight in 7156, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7156)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Essay über die "Technisierung" der Sprache, von der Schrift als Urform sprachlicher Normierung bis hin zu den jüngsten Technologien.
    RSWK
    Kommunikation / Sprache / Informationstechnik
    Sprache / Informationstechnik
    Telekommunikation / Sprache
    Sprache / Technisierung
    Subject
    Kommunikation / Sprache / Informationstechnik
    Sprache / Informationstechnik
    Telekommunikation / Sprache
    Sprache / Technisierung
  16. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.04
    0.0361309 = product of:
      0.0722618 = sum of:
        0.04503633 = weight(_text_:deutsche in 5218) [ClassicSimilarity], result of:
          0.04503633 = score(doc=5218,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.20870294 = fieldWeight in 5218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
        0.027225474 = product of:
          0.054450948 = sum of:
            0.054450948 = weight(_text_:sprache in 5218) [ClassicSimilarity], result of:
              0.054450948 = score(doc=5218,freq=2.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                0.2294826 = fieldWeight in 5218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5218)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  17. Kunze, C.; Wagner, A.: Anwendungsperspektive des GermaNet, eines lexikalisch-semantischen Netzes für das Deutsche (2001) 0.03
    0.033777248 = product of:
      0.13510899 = sum of:
        0.13510899 = weight(_text_:deutsche in 7456) [ClassicSimilarity], result of:
          0.13510899 = score(doc=7456,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.6261088 = fieldWeight in 7456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=7456)
      0.25 = coord(1/4)
    
  18. Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019) 0.03
    0.033777248 = product of:
      0.13510899 = sum of:
        0.13510899 = weight(_text_:deutsche in 4981) [ClassicSimilarity], result of:
          0.13510899 = score(doc=4981,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.6261088 = fieldWeight in 4981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
      0.25 = coord(1/4)
    
    Abstract
    Deutsche Sprachsoftware ist besser als Google. Sogar professionelle Übersetzer diskutieren schon, ob sie überflüssig werden.
  19. Krause, J.: Mensch-Maschine-Interaktion in natürlicher Sprache : Evaluierungsstudien zu praxisorientierten Frage-Antwort-Systemen und ihre Methodik (1982) 0.03
    0.033689804 = product of:
      0.13475922 = sum of:
        0.13475922 = product of:
          0.26951844 = sum of:
            0.26951844 = weight(_text_:sprache in 8964) [ClassicSimilarity], result of:
              0.26951844 = score(doc=8964,freq=4.0), product of:
                0.23727702 = queryWeight, product of:
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.045695234 = queryNorm
                1.135881 = fieldWeight in 8964, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.192599 = idf(docFreq=667, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8964)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Series
    Sprache und Information; 1
  20. Dreehsen, B.: ¬Der PC als Dolmetscher (1998) 0.03
    0.028147709 = product of:
      0.112590834 = sum of:
        0.112590834 = weight(_text_:deutsche in 1474) [ClassicSimilarity], result of:
          0.112590834 = score(doc=1474,freq=2.0), product of:
            0.21579155 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.045695234 = queryNorm
            0.52175736 = fieldWeight in 1474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.078125 = fieldNorm(doc=1474)
      0.25 = coord(1/4)
    
    Abstract
    Für englische Web-Seiten und fremdsprachige Korrespondenz ist Übersetzungssoftware hilfreich, die per Mausklick den Text ins Deutsche überträgt und umgekehrt. Die neuen Versionen geben den Inhalt sinngemäß bereits gut wieder. CHIP hat die Leistungen von 5 Programmen getestet

Years

Languages

  • d 82
  • e 46
  • m 2
  • More… Less…

Types

  • a 86
  • m 28
  • el 13
  • s 9
  • x 5
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications