Search (119 results, page 1 of 6)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.20
    0.19573344 = product of:
      0.26097792 = sum of:
        0.0625755 = product of:
          0.18772648 = sum of:
            0.18772648 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.18772648 = score(doc=562,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.18772648 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.18772648 = score(doc=562,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.010675946 = product of:
          0.032027837 = sum of:
            0.032027837 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.032027837 = score(doc=562,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.13
    0.125151 = product of:
      0.250302 = sum of:
        0.0625755 = product of:
          0.18772648 = sum of:
            0.18772648 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.18772648 = score(doc=862,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.18772648 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.18772648 = score(doc=862,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(2/4)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Rolland, M.T.: Sprachverarbeitung auf der Basis der semantikorientierten Grammatik (1995) 0.11
    0.11384408 = product of:
      0.45537633 = sum of:
        0.45537633 = weight(_text_:grammatik in 5273) [ClassicSimilarity], result of:
          0.45537633 = score(doc=5273,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.4294108 = fieldWeight in 5273, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.125 = fieldNorm(doc=5273)
      0.25 = coord(1/4)
    
  4. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.11
    0.11384408 = product of:
      0.45537633 = sum of:
        0.45537633 = weight(_text_:grammatik in 5356) [ClassicSimilarity], result of:
          0.45537633 = score(doc=5356,freq=8.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.4294108 = fieldWeight in 5356, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
      0.25 = coord(1/4)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  5. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.11
    0.10507321 = product of:
      0.21014643 = sum of:
        0.20124981 = weight(_text_:grammatik in 734) [ClassicSimilarity], result of:
          0.20124981 = score(doc=734,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.6317163 = fieldWeight in 734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.008896622 = product of:
          0.026689865 = sum of:
            0.026689865 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.026689865 = score(doc=734,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  6. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.10
    0.09920122 = product of:
      0.19840243 = sum of:
        0.18772648 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.18772648 = score(doc=563,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010675946 = product of:
          0.032027837 = sum of:
            0.032027837 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.032027837 = score(doc=563,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  7. Wilhelm, K.: ¬Die Macht der Grammatik (2000) 0.07
    0.07115255 = product of:
      0.2846102 = sum of:
        0.2846102 = weight(_text_:grammatik in 5510) [ClassicSimilarity], result of:
          0.2846102 = score(doc=5510,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.8933818 = fieldWeight in 5510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.078125 = fieldNorm(doc=5510)
      0.25 = coord(1/4)
    
  8. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.06
    0.060374945 = product of:
      0.24149978 = sum of:
        0.24149978 = weight(_text_:grammatik in 1399) [ClassicSimilarity], result of:
          0.24149978 = score(doc=1399,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.7580596 = fieldWeight in 1399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
      0.25 = coord(1/4)
    
    Classification
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    RVK
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
  9. Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997) 0.06
    0.05692204 = product of:
      0.22768816 = sum of:
        0.22768816 = weight(_text_:grammatik in 467) [ClassicSimilarity], result of:
          0.22768816 = score(doc=467,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.7147054 = fieldWeight in 467, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0625 = fieldNorm(doc=467)
      0.25 = coord(1/4)
    
    Abstract
    Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
  10. Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997) 0.06
    0.05692204 = product of:
      0.22768816 = sum of:
        0.22768816 = weight(_text_:grammatik in 468) [ClassicSimilarity], result of:
          0.22768816 = score(doc=468,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.7147054 = fieldWeight in 468, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0625 = fieldNorm(doc=468)
      0.25 = coord(1/4)
    
    Abstract
    Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
  11. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.04
    0.04269153 = product of:
      0.17076612 = sum of:
        0.17076612 = weight(_text_:grammatik in 564) [ClassicSimilarity], result of:
          0.17076612 = score(doc=564,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.53602904 = fieldWeight in 564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
      0.25 = coord(1/4)
    
    Abstract
    Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesondere für Module im Bachelor-Studium geeignet macht.
  12. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.04
    0.035576276 = product of:
      0.1423051 = sum of:
        0.1423051 = weight(_text_:grammatik in 2731) [ClassicSimilarity], result of:
          0.1423051 = score(doc=2731,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.4466909 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  13. Melby, A.: Some notes on 'The proper place of men and machines in language translation' (1997) 0.01
    0.0125118 = product of:
      0.0500472 = sum of:
        0.0500472 = product of:
          0.0750708 = sum of:
            0.03770499 = weight(_text_:29 in 330) [ClassicSimilarity], result of:
              0.03770499 = score(doc=330,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.27205724 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
            0.03736581 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.03736581 = score(doc=330,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.2708308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
    Source
    Machine translation. 12(1997) nos.1/2, S.29-34
  14. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.01
    0.010779551 = product of:
      0.043118205 = sum of:
        0.043118205 = product of:
          0.064677306 = sum of:
            0.026932137 = weight(_text_:29 in 2541) [ClassicSimilarity], result of:
              0.026932137 = score(doc=2541,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.19432661 = fieldWeight in 2541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
            0.037745167 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
              0.037745167 = score(doc=2541,freq=4.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.27358043 = fieldWeight in 2541, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  15. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.01
    0.008887152 = product of:
      0.03554861 = sum of:
        0.03554861 = product of:
          0.10664582 = sum of:
            0.10664582 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.10664582 = score(doc=4251,freq=4.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 1.2011 14:56:29
  16. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.01
    0.007774638 = product of:
      0.031098552 = sum of:
        0.031098552 = product of:
          0.093295656 = sum of:
            0.093295656 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.093295656 = score(doc=925,freq=6.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  17. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.01
    0.0071819033 = product of:
      0.028727613 = sum of:
        0.028727613 = product of:
          0.08618284 = sum of:
            0.08618284 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.08618284 = score(doc=2140,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    4.11.1998 14:30:29
  18. Warner, A.J.: Natural language processing (1987) 0.01
    0.007117297 = product of:
      0.028469188 = sum of:
        0.028469188 = product of:
          0.08540756 = sum of:
            0.08540756 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.08540756 = score(doc=337,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  19. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.01
    0.006284165 = product of:
      0.02513666 = sum of:
        0.02513666 = product of:
          0.07540998 = sum of:
            0.07540998 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
              0.07540998 = score(doc=450,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5441145 = fieldWeight in 450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=450)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
  20. Proszeky, G.: Language technology tools in the translator's practice (1999) 0.01
    0.006284165 = product of:
      0.02513666 = sum of:
        0.02513666 = product of:
          0.07540998 = sum of:
            0.07540998 = weight(_text_:29 in 6873) [ClassicSimilarity], result of:
              0.07540998 = score(doc=6873,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5441145 = fieldWeight in 6873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6873)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    30. 3.2002 18:29:40

Years

Languages

  • e 76
  • d 39
  • ru 2
  • More… Less…

Types

  • a 97
  • el 12
  • m 12
  • s 4
  • x 3
  • p 2
  • d 1
  • More… Less…

Classifications