Search (22 results, page 1 of 2)

  • × theme_ss:"Computerlinguistik"
  • × language_ss:"d"
  1. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.02
    0.022597479 = product of:
      0.056493696 = sum of:
        0.042991128 = product of:
          0.085982256 = sum of:
            0.085982256 = weight(_text_:allgemein in 190) [ClassicSimilarity], result of:
              0.085982256 = score(doc=190,freq=4.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.41049585 = fieldWeight in 190, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
        0.013502568 = product of:
          0.027005136 = sum of:
            0.027005136 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.027005136 = score(doc=190,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
  2. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.01
    0.01031787 = product of:
      0.05158935 = sum of:
        0.05158935 = product of:
          0.1031787 = sum of:
            0.1031787 = weight(_text_:allgemein in 564) [ClassicSimilarity], result of:
              0.1031787 = score(doc=564,freq=4.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.49259502 = fieldWeight in 564, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=564)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  3. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.01
    0.01031787 = product of:
      0.05158935 = sum of:
        0.05158935 = product of:
          0.1031787 = sum of:
            0.1031787 = weight(_text_:allgemein in 1399) [ClassicSimilarity], result of:
              0.1031787 = score(doc=1399,freq=4.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.49259502 = fieldWeight in 1399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1399)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  4. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.01
    0.00851181 = product of:
      0.042559046 = sum of:
        0.042559046 = product of:
          0.08511809 = sum of:
            0.08511809 = weight(_text_:allgemein in 4099) [ClassicSimilarity], result of:
              0.08511809 = score(doc=4099,freq=2.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.40637016 = fieldWeight in 4099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  5. ¬Der Student aus dem Computer (2023) 0.01
    0.007561438 = product of:
      0.03780719 = sum of:
        0.03780719 = product of:
          0.07561438 = sum of:
            0.07561438 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.07561438 = score(doc=1079,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    27. 1.2023 16:22:55
  6. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.01
    0.0068785804 = product of:
      0.0343929 = sum of:
        0.0343929 = product of:
          0.0687858 = sum of:
            0.0687858 = weight(_text_:allgemein in 1735) [ClassicSimilarity], result of:
              0.0687858 = score(doc=1735,freq=4.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.32839668 = fieldWeight in 1735, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1735)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  7. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.01
    0.0064812326 = product of:
      0.032406162 = sum of:
        0.032406162 = product of:
          0.064812325 = sum of:
            0.064812325 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.064812325 = score(doc=5429,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    c't. 2000, H.22, S.230-231
  8. Kuhlmann, U.; Monnerjahn, P.: Sprache auf Knopfdruck : Sieben automatische Übersetzungsprogramme im Test (2000) 0.01
    0.0054010274 = product of:
      0.027005136 = sum of:
        0.027005136 = product of:
          0.054010272 = sum of:
            0.054010272 = weight(_text_:22 in 5428) [ClassicSimilarity], result of:
              0.054010272 = score(doc=5428,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.38690117 = fieldWeight in 5428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5428)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    c't. 2000, H.22, S.220-229
  9. Lezius, W.; Rapp, R.; Wettler, M.: ¬A morphology-system and part-of-speech tagger for German (1996) 0.01
    0.0054010274 = product of:
      0.027005136 = sum of:
        0.027005136 = product of:
          0.054010272 = sum of:
            0.054010272 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.054010272 = score(doc=1693,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.38690117 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1693)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 3.2015 9:37:18
  10. Ruge, G.: Sprache und Computer : Wortbedeutung und Termassoziation. Methoden zur automatischen semantischen Klassifikation (1995) 0.00
    0.0043208217 = product of:
      0.021604108 = sum of:
        0.021604108 = product of:
          0.043208215 = sum of:
            0.043208215 = weight(_text_:22 in 1534) [ClassicSimilarity], result of:
              0.043208215 = score(doc=1534,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.30952093 = fieldWeight in 1534, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1534)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Knowledge organization 22(1995) no.3/4, S.182-184 (M.T. Rolland)
  11. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.00
    0.0043208217 = product of:
      0.021604108 = sum of:
        0.021604108 = product of:
          0.043208215 = sum of:
            0.043208215 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.043208215 = score(doc=1490,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 3.2015 9:30:24
  12. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.00
    0.0043208217 = product of:
      0.021604108 = sum of:
        0.021604108 = product of:
          0.043208215 = sum of:
            0.043208215 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.043208215 = score(doc=835,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    29.12.2022 18:22:55
  13. Rieger, F.: Lügende Computer (2023) 0.00
    0.0043208217 = product of:
      0.021604108 = sum of:
        0.021604108 = product of:
          0.043208215 = sum of:
            0.043208215 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.043208215 = score(doc=912,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    16. 3.2023 19:22:55
  14. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.00
    0.003780719 = product of:
      0.018903594 = sum of:
        0.018903594 = product of:
          0.03780719 = sum of:
            0.03780719 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.03780719 = score(doc=4184,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 1.2011 10:38:28
  15. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.0036479179 = product of:
      0.01823959 = sum of:
        0.01823959 = product of:
          0.03647918 = sum of:
            0.03647918 = weight(_text_:allgemein in 3385) [ClassicSimilarity], result of:
              0.03647918 = score(doc=3385,freq=2.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.17415863 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Content
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  16. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.00
    0.0034392902 = product of:
      0.01719645 = sum of:
        0.01719645 = product of:
          0.0343929 = sum of:
            0.0343929 = weight(_text_:allgemein in 91) [ClassicSimilarity], result of:
              0.0343929 = score(doc=91,freq=4.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.16419834 = fieldWeight in 91, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  17. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.00
    0.0032406163 = product of:
      0.016203081 = sum of:
        0.016203081 = product of:
          0.032406162 = sum of:
            0.032406162 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.032406162 = score(doc=1746,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 3.2015 9:17:30
  18. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.00
    0.0027005137 = product of:
      0.013502568 = sum of:
        0.013502568 = product of:
          0.027005136 = sum of:
            0.027005136 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.027005136 = score(doc=5557,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    26.12.2000 13:22:17
  19. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.00
    0.0027005137 = product of:
      0.013502568 = sum of:
        0.013502568 = product of:
          0.027005136 = sum of:
            0.027005136 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.027005136 = score(doc=734,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    19. 7.2002 14:22:31
  20. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.0021604109 = product of:
      0.010802054 = sum of:
        0.010802054 = product of:
          0.021604108 = sum of:
            0.021604108 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.021604108 = score(doc=4217,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 1.2018 11:32:44

Years

Types

Classifications