Search (18 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Computerlinguistik"
  • × year_i:[2010 TO 2020}
  1. Hahn, U.: Methodische Grundlagen der Informationslinguistik (2013) 0.01
    0.009199321 = product of:
      0.055195928 = sum of:
        0.055195928 = weight(_text_:u in 719) [ClassicSimilarity], result of:
          0.055195928 = score(doc=719,freq=4.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.5116319 = fieldWeight in 719, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
      0.16666667 = coord(1/6)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  2. Engerer, V.: Informationswissenschaft und Linguistik. : kurze Geschichte eines fruchtbaren interdisziplinäaren Verhäaltnisses in drei Akten (2012) 0.01
    0.007511699 = product of:
      0.022535097 = sum of:
        0.007520625 = weight(_text_:e in 3376) [ClassicSimilarity], result of:
          0.007520625 = score(doc=3376,freq=2.0), product of:
            0.047356583 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03294669 = queryNorm
            0.15880844 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.015014472 = product of:
          0.045043416 = sum of:
            0.045043416 = weight(_text_:29 in 3376) [ClassicSimilarity], result of:
              0.045043416 = score(doc=3376,freq=2.0), product of:
                0.11589616 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03294669 = queryNorm
                0.38865322 = fieldWeight in 3376, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3376)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    19. 2.2017 13:29:08
    Source
    SDV - Sprache und Datenverarbeitung. International journal for language data processing. 36(2012) H.2, S.71-91 [= E-Books - Fakten, Perspektiven und Szenarien] 36/2 (2012), S. 71-91
  3. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.01
    0.0061849756 = product of:
      0.03710985 = sum of:
        0.03710985 = weight(_text_:k in 2818) [ClassicSimilarity], result of:
          0.03710985 = score(doc=2818,freq=2.0), product of:
            0.11761237 = queryWeight, product of:
              3.569778 = idf(docFreq=3384, maxDocs=44218)
              0.03294669 = queryNorm
            0.31552678 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.569778 = idf(docFreq=3384, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.16666667 = coord(1/6)
    
  4. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.01
    0.0052039223 = product of:
      0.031223532 = sum of:
        0.031223532 = weight(_text_:u in 4018) [ClassicSimilarity], result of:
          0.031223532 = score(doc=4018,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.28942272 = fieldWeight in 4018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.16666667 = coord(1/6)
    
  5. Becks, D.; Schulz, J.M.: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente (2010) 0.01
    0.0052039223 = product of:
      0.031223532 = sum of:
        0.031223532 = weight(_text_:u in 4661) [ClassicSimilarity], result of:
          0.031223532 = score(doc=4661,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.28942272 = fieldWeight in 4661, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=4661)
      0.16666667 = coord(1/6)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  6. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.00
    0.0046387315 = product of:
      0.027832389 = sum of:
        0.027832389 = weight(_text_:k in 2849) [ClassicSimilarity], result of:
          0.027832389 = score(doc=2849,freq=2.0), product of:
            0.11761237 = queryWeight, product of:
              3.569778 = idf(docFreq=3384, maxDocs=44218)
              0.03294669 = queryNorm
            0.23664509 = fieldWeight in 2849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.569778 = idf(docFreq=3384, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
      0.16666667 = coord(1/6)
    
  7. Budin, G.: Zum Entwicklungsstand der Terminologiewissenschaft (2019) 0.00
    0.0045534316 = product of:
      0.02732059 = sum of:
        0.02732059 = weight(_text_:u in 5604) [ClassicSimilarity], result of:
          0.02732059 = score(doc=5604,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.25324488 = fieldWeight in 5604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
      0.16666667 = coord(1/6)
    
    Source
    Terminologie : Epochen - Schwerpunkte - Umsetzungen. Zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie. Hrsg.: P. Drewer, u. D. Pulitano
  8. Mengel, T.: Wie viel Terminologiearbeit steckt in der Übersetzung der Dewey-Dezimalklassifikation? (2019) 0.00
    0.0039029415 = product of:
      0.023417648 = sum of:
        0.023417648 = weight(_text_:u in 5603) [ClassicSimilarity], result of:
          0.023417648 = score(doc=5603,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.21706703 = fieldWeight in 5603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=5603)
      0.16666667 = coord(1/6)
    
    Source
    Terminologie : Epochen - Schwerpunkte - Umsetzungen. Zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie. Hrsg.: P. Drewer, u. D. Pulitano
  9. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.00
    0.0036797288 = product of:
      0.022078373 = sum of:
        0.022078373 = weight(_text_:u in 1735) [ClassicSimilarity], result of:
          0.022078373 = score(doc=1735,freq=4.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.20465277 = fieldWeight in 1735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.16666667 = coord(1/6)
    
    Issue
    3., überarb. u. erw. Aufl.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  10. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    0.0032800785 = product of:
      0.01968047 = sum of:
        0.01968047 = weight(_text_:k in 331) [ClassicSimilarity], result of:
          0.01968047 = score(doc=331,freq=4.0), product of:
            0.11761237 = queryWeight, product of:
              3.569778 = idf(docFreq=3384, maxDocs=44218)
              0.03294669 = queryNorm
            0.16733333 = fieldWeight in 331, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.569778 = idf(docFreq=3384, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.16666667 = coord(1/6)
    
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
  11. Sprachtechnologie : ein Überblick (2012) 0.00
    0.0032524513 = product of:
      0.019514708 = sum of:
        0.019514708 = weight(_text_:u in 1750) [ClassicSimilarity], result of:
          0.019514708 = score(doc=1750,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.1808892 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.16666667 = coord(1/6)
    
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  12. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.00
    0.0032524513 = product of:
      0.019514708 = sum of:
        0.019514708 = weight(_text_:u in 2380) [ClassicSimilarity], result of:
          0.019514708 = score(doc=2380,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.1808892 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.16666667 = coord(1/6)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  13. Terminologie : Epochen - Schwerpunkte - Umsetzungen : zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie (2019) 0.00
    0.0032524513 = product of:
      0.019514708 = sum of:
        0.019514708 = weight(_text_:u in 5602) [ClassicSimilarity], result of:
          0.019514708 = score(doc=5602,freq=2.0), product of:
            0.107882105 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03294669 = queryNorm
            0.1808892 = fieldWeight in 5602, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5602)
      0.16666667 = coord(1/6)
    
    Editor
    Drewer, P. u. D. Pulitano
  14. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.00
    0.001983921 = product of:
      0.011903526 = sum of:
        0.011903526 = product of:
          0.035710577 = sum of:
            0.035710577 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.035710577 = score(doc=1490,freq=2.0), product of:
                0.1153737 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03294669 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 3.2015 9:30:24
  15. Wolfangel, E.: Ich verstehe (2017) 0.00
    0.0017726284 = product of:
      0.01063577 = sum of:
        0.01063577 = weight(_text_:e in 3976) [ClassicSimilarity], result of:
          0.01063577 = score(doc=3976,freq=4.0), product of:
            0.047356583 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03294669 = queryNorm
            0.22458905 = fieldWeight in 3976, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=3976)
      0.16666667 = coord(1/6)
    
    Abstract
    Computer werden immer besser darin, den Sinn von Sprache zu entschlüsseln. Das ist zwar bequem, wenn man seinem Handy einfach sagen kann, was es tun soll, ohne tippen zu müssen. Aber das bedeutet auch, dass sich E-Mails und andere Botschaften maschinell auswerten lassen. Da wird inzwischen sogar den Forschern mulmig.
  16. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.00
    0.0015014473 = product of:
      0.009008683 = sum of:
        0.009008683 = product of:
          0.027026048 = sum of:
            0.027026048 = weight(_text_:29 in 3547) [ClassicSimilarity], result of:
              0.027026048 = score(doc=3547,freq=2.0), product of:
                0.11589616 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03294669 = queryNorm
                0.23319192 = fieldWeight in 3547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3547)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    2. 9.2019 19:29:24
  17. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.00
    0.0010635771 = product of:
      0.0063814623 = sum of:
        0.0063814623 = weight(_text_:e in 564) [ClassicSimilarity], result of:
          0.0063814623 = score(doc=564,freq=4.0), product of:
            0.047356583 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03294669 = queryNorm
            0.13475344 = fieldWeight in 564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
      0.16666667 = coord(1/6)
    
    Classification
    BFP (E)
    GHBS
    BFP (E)
  18. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    9.919605E-4 = product of:
      0.005951763 = sum of:
        0.005951763 = product of:
          0.017855288 = sum of:
            0.017855288 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.017855288 = score(doc=4217,freq=2.0), product of:
                0.1153737 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03294669 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 1.2018 11:32:44