Search (113 results, page 1 of 6)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.20
    0.20080352 = product of:
      0.267738 = sum of:
        0.064196385 = product of:
          0.19258915 = sum of:
            0.19258915 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.19258915 = score(doc=562,freq=2.0), product of:
                0.34267431 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040419187 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.19258915 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.19258915 = score(doc=562,freq=2.0), product of:
            0.34267431 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040419187 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.010952484 = product of:
          0.03285745 = sum of:
            0.03285745 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.03285745 = score(doc=562,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.13
    0.12839277 = product of:
      0.25678554 = sum of:
        0.064196385 = product of:
          0.19258915 = sum of:
            0.19258915 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.19258915 = score(doc=862,freq=2.0), product of:
                0.34267431 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040419187 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.19258915 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.19258915 = score(doc=862,freq=2.0), product of:
            0.34267431 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040419187 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(2/4)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.10
    0.10177082 = product of:
      0.20354164 = sum of:
        0.19258915 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.19258915 = score(doc=563,freq=2.0), product of:
            0.34267431 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040419187 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010952484 = product of:
          0.03285745 = sum of:
            0.03285745 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.03285745 = score(doc=563,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Endres-Niggemeyer, B.: Thinkie: Lautes Denken mit Spracherkennung (mobil) (2013) 0.04
    0.038591295 = product of:
      0.15436518 = sum of:
        0.15436518 = weight(_text_:denken in 1145) [ClassicSimilarity], result of:
          0.15436518 = score(doc=1145,freq=6.0), product of:
            0.2331095 = queryWeight, product of:
              5.767298 = idf(docFreq=375, maxDocs=44218)
              0.040419187 = queryNorm
            0.6622003 = fieldWeight in 1145, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.767298 = idf(docFreq=375, maxDocs=44218)
              0.046875 = fieldNorm(doc=1145)
      0.25 = coord(1/4)
    
    Abstract
    Lautes Denken ist eine bewährte Methode zum Erforschen kognitiver Prozesse. Es wird in vielen Disziplinen benutzt, z. B. um aufzudecken, welche Erfahrungen Benutzer bei der Interaktion mit Computerschnittstellen machen. Nach einer kurzen Erklärung des Lauten Denkens wird die App Thinkie vorgestellt. Thinkie ist eine mobile Lösung für das Laute Denken auf iPhone und iPad. Die Testperson nimmt auf dem iPhone den Ton auf. Die Spracherkennungssoftware Siri (http://www.apple.com/de/ios/siri/) transkribiert ihn. Parallel wird auf dem iPad oder einem anderen Gerät gefilmt. Auf dem iPad kann man - mit Video im Blick - das Transkript aufarbeiten und interpretieren. Die Textdateien transportiert Thinkie über eine Cloud-Kollektion, die Filme werden mit iTunes übertragen. Thinkie ist noch nicht tauglich für den praktischen Gebrauch. Noch sind die Sequenzen zu kurz, die Siri verarbeiten kann. Das wird sich ändern.
  5. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.03
    0.033391558 = product of:
      0.066783115 = sum of:
        0.059415177 = weight(_text_:denken in 877) [ClassicSimilarity], result of:
          0.059415177 = score(doc=877,freq=2.0), product of:
            0.2331095 = queryWeight, product of:
              5.767298 = idf(docFreq=375, maxDocs=44218)
              0.040419187 = queryNorm
            0.25488096 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.767298 = idf(docFreq=375, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.007367936 = product of:
          0.022103807 = sum of:
            0.022103807 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.022103807 = score(doc=877,freq=2.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
  6. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.01
    0.014853794 = product of:
      0.059415177 = sum of:
        0.059415177 = weight(_text_:denken in 5218) [ClassicSimilarity], result of:
          0.059415177 = score(doc=5218,freq=2.0), product of:
            0.2331095 = queryWeight, product of:
              5.767298 = idf(docFreq=375, maxDocs=44218)
              0.040419187 = queryNorm
            0.25488096 = fieldWeight in 5218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.767298 = idf(docFreq=375, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
      0.25 = coord(1/4)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  7. Melby, A.: Some notes on 'The proper place of men and machines in language translation' (1997) 0.01
    0.012835893 = product of:
      0.05134357 = sum of:
        0.05134357 = product of:
          0.077015355 = sum of:
            0.03868166 = weight(_text_:29 in 330) [ClassicSimilarity], result of:
              0.03868166 = score(doc=330,freq=2.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.27205724 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
            0.03833369 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.03833369 = score(doc=330,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.2708308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
    Source
    Machine translation. 12(1997) nos.1/2, S.29-34
  8. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.01
    0.011058773 = product of:
      0.04423509 = sum of:
        0.04423509 = product of:
          0.066352636 = sum of:
            0.02762976 = weight(_text_:29 in 2541) [ClassicSimilarity], result of:
              0.02762976 = score(doc=2541,freq=2.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.19432661 = fieldWeight in 2541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
            0.038722876 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
              0.038722876 = score(doc=2541,freq=4.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.27358043 = fieldWeight in 2541, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  9. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.01
    0.009117356 = product of:
      0.036469422 = sum of:
        0.036469422 = product of:
          0.10940827 = sum of:
            0.10940827 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.10940827 = score(doc=4251,freq=4.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 1.2011 14:56:29
  10. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.01
    0.007976024 = product of:
      0.031904098 = sum of:
        0.031904098 = product of:
          0.09571229 = sum of:
            0.09571229 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.09571229 = score(doc=925,freq=6.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  11. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.01
    0.007367936 = product of:
      0.029471744 = sum of:
        0.029471744 = product of:
          0.08841523 = sum of:
            0.08841523 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.08841523 = score(doc=2140,freq=2.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    4.11.1998 14:30:29
  12. Warner, A.J.: Natural language processing (1987) 0.01
    0.007301656 = product of:
      0.029206624 = sum of:
        0.029206624 = product of:
          0.08761987 = sum of:
            0.08761987 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.08761987 = score(doc=337,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  13. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.01
    0.0064469436 = product of:
      0.025787774 = sum of:
        0.025787774 = product of:
          0.07736332 = sum of:
            0.07736332 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
              0.07736332 = score(doc=450,freq=2.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5441145 = fieldWeight in 450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=450)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
  14. Proszeky, G.: Language technology tools in the translator's practice (1999) 0.01
    0.0064469436 = product of:
      0.025787774 = sum of:
        0.025787774 = product of:
          0.07736332 = sum of:
            0.07736332 = weight(_text_:29 in 6873) [ClassicSimilarity], result of:
              0.07736332 = score(doc=6873,freq=2.0), product of:
                0.14218207 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5441145 = fieldWeight in 6873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6873)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    30. 3.2002 18:29:40
  15. McMahon, J.G.; Smith, F.J.: Improved statistical language model performance with automatic generated word hierarchies (1996) 0.01
    0.0063889488 = product of:
      0.025555795 = sum of:
        0.025555795 = product of:
          0.07666738 = sum of:
            0.07666738 = weight(_text_:22 in 3164) [ClassicSimilarity], result of:
              0.07666738 = score(doc=3164,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5416616 = fieldWeight in 3164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3164)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Computational linguistics. 22(1996) no.2, S.217-248
  16. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.01
    0.0063889488 = product of:
      0.025555795 = sum of:
        0.025555795 = product of:
          0.07666738 = sum of:
            0.07666738 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.07666738 = score(doc=4506,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    8.10.2000 11:52:22
  17. Somers, H.: Example-based machine translation : Review article (1999) 0.01
    0.0063889488 = product of:
      0.025555795 = sum of:
        0.025555795 = product of:
          0.07666738 = sum of:
            0.07666738 = weight(_text_:22 in 6672) [ClassicSimilarity], result of:
              0.07666738 = score(doc=6672,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5416616 = fieldWeight in 6672, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6672)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  18. New tools for human translators (1997) 0.01
    0.0063889488 = product of:
      0.025555795 = sum of:
        0.025555795 = product of:
          0.07666738 = sum of:
            0.07666738 = weight(_text_:22 in 1179) [ClassicSimilarity], result of:
              0.07666738 = score(doc=1179,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5416616 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1179)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  19. Baayen, R.H.; Lieber, H.: Word frequency distributions and lexical semantics (1997) 0.01
    0.0063889488 = product of:
      0.025555795 = sum of:
        0.025555795 = product of:
          0.07666738 = sum of:
            0.07666738 = weight(_text_:22 in 3117) [ClassicSimilarity], result of:
              0.07666738 = score(doc=3117,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5416616 = fieldWeight in 3117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3117)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    28. 2.1999 10:48:22
  20. ¬Der Student aus dem Computer (2023) 0.01
    0.0063889488 = product of:
      0.025555795 = sum of:
        0.025555795 = product of:
          0.07666738 = sum of:
            0.07666738 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.07666738 = score(doc=1079,freq=2.0), product of:
                0.14154111 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040419187 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    27. 1.2023 16:22:55

Years

Languages

  • e 77
  • d 32
  • ru 2
  • More… Less…

Types

  • a 93
  • el 12
  • m 10
  • s 4
  • x 3
  • p 2
  • d 1
  • More… Less…