Search (114 results, page 1 of 6)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.05
    0.05216831 = product of:
      0.078252465 = sum of:
        0.06684765 = product of:
          0.20054294 = sum of:
            0.20054294 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.20054294 = score(doc=562,freq=2.0), product of:
                0.3568265 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04208847 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.011404814 = product of:
          0.03421444 = sum of:
            0.03421444 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.03421444 = score(doc=562,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Ney, H.: Maschinelle Sprachverarbeitung und Statistik (1995) 0.05
    0.047574352 = product of:
      0.14272305 = sum of:
        0.14272305 = product of:
          0.42816913 = sum of:
            0.42816913 = weight(_text_:statistik in 6799) [ClassicSimilarity], result of:
              0.42816913 = score(doc=6799,freq=2.0), product of:
                0.3192837 = queryWeight, product of:
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.04208847 = queryNorm
                1.3410304 = fieldWeight in 6799, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.125 = fieldNorm(doc=6799)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  3. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.03
    0.025248986 = product of:
      0.07574695 = sum of:
        0.07574695 = product of:
          0.11362042 = sum of:
            0.093662 = weight(_text_:statistik in 4044) [ClassicSimilarity], result of:
              0.093662 = score(doc=4044,freq=2.0), product of:
                0.3192837 = queryWeight, product of:
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.04208847 = queryNorm
                0.2933504 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
            0.019958423 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
              0.019958423 = score(doc=4044,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.1354154 = fieldWeight in 4044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4044)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Content
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  4. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.02
    0.022282552 = product of:
      0.06684765 = sum of:
        0.06684765 = product of:
          0.20054294 = sum of:
            0.20054294 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.20054294 = score(doc=862,freq=2.0), product of:
                0.3568265 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04208847 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  5. Strube, M.: Kreativ durch Analogien (2011) 0.02
    0.020813778 = product of:
      0.062441334 = sum of:
        0.062441334 = product of:
          0.187324 = sum of:
            0.187324 = weight(_text_:statistik in 4805) [ClassicSimilarity], result of:
              0.187324 = score(doc=4805,freq=2.0), product of:
                0.3192837 = queryWeight, product of:
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5867008 = fieldWeight in 4805, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4805)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
  6. Melby, A.: Some notes on 'The proper place of men and machines in language translation' (1997) 0.02
    0.017821342 = product of:
      0.05346402 = sum of:
        0.05346402 = product of:
          0.08019603 = sum of:
            0.040279184 = weight(_text_:29 in 330) [ClassicSimilarity], result of:
              0.040279184 = score(doc=330,freq=2.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.27205724 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
            0.039916847 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.039916847 = score(doc=330,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.2708308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=330)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    31. 7.1996 9:22:19
    Source
    Machine translation. 12(1997) nos.1/2, S.29-34
  7. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.02
    0.015353991 = product of:
      0.04606197 = sum of:
        0.04606197 = product of:
          0.06909295 = sum of:
            0.028770847 = weight(_text_:29 in 2541) [ClassicSimilarity], result of:
              0.028770847 = score(doc=2541,freq=2.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.19432661 = fieldWeight in 2541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
            0.040322106 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
              0.040322106 = score(doc=2541,freq=4.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.27358043 = fieldWeight in 2541, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  8. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.01
    0.012658527 = product of:
      0.03797558 = sum of:
        0.03797558 = product of:
          0.11392674 = sum of:
            0.11392674 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.11392674 = score(doc=4251,freq=4.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    29. 1.2011 14:56:29
  9. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.01
    0.011893588 = product of:
      0.035680763 = sum of:
        0.035680763 = product of:
          0.10704228 = sum of:
            0.10704228 = weight(_text_:statistik in 5218) [ClassicSimilarity], result of:
              0.10704228 = score(doc=5218,freq=2.0), product of:
                0.3192837 = queryWeight, product of:
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.04208847 = queryNorm
                0.3352576 = fieldWeight in 5218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5218)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  10. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.01
    0.011073905 = product of:
      0.033221714 = sum of:
        0.033221714 = product of:
          0.099665135 = sum of:
            0.099665135 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.099665135 = score(doc=925,freq=6.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  11. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.01
    0.010229634 = product of:
      0.030688902 = sum of:
        0.030688902 = product of:
          0.092066705 = sum of:
            0.092066705 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.092066705 = score(doc=2140,freq=2.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    4.11.1998 14:30:29
  12. Warner, A.J.: Natural language processing (1987) 0.01
    0.010137612 = product of:
      0.030412836 = sum of:
        0.030412836 = product of:
          0.091238506 = sum of:
            0.091238506 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.091238506 = score(doc=337,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  13. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.01
    0.00895093 = product of:
      0.02685279 = sum of:
        0.02685279 = product of:
          0.08055837 = sum of:
            0.08055837 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
              0.08055837 = score(doc=450,freq=2.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5441145 = fieldWeight in 450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=450)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Source
    Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
  14. Proszeky, G.: Language technology tools in the translator's practice (1999) 0.01
    0.00895093 = product of:
      0.02685279 = sum of:
        0.02685279 = product of:
          0.08055837 = sum of:
            0.08055837 = weight(_text_:29 in 6873) [ClassicSimilarity], result of:
              0.08055837 = score(doc=6873,freq=2.0), product of:
                0.14805408 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5441145 = fieldWeight in 6873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6873)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    30. 3.2002 18:29:40
  15. McMahon, J.G.; Smith, F.J.: Improved statistical language model performance with automatic generated word hierarchies (1996) 0.01
    0.008870411 = product of:
      0.026611231 = sum of:
        0.026611231 = product of:
          0.079833694 = sum of:
            0.079833694 = weight(_text_:22 in 3164) [ClassicSimilarity], result of:
              0.079833694 = score(doc=3164,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5416616 = fieldWeight in 3164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3164)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Source
    Computational linguistics. 22(1996) no.2, S.217-248
  16. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.01
    0.008870411 = product of:
      0.026611231 = sum of:
        0.026611231 = product of:
          0.079833694 = sum of:
            0.079833694 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.079833694 = score(doc=4506,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    8.10.2000 11:52:22
  17. Somers, H.: Example-based machine translation : Review article (1999) 0.01
    0.008870411 = product of:
      0.026611231 = sum of:
        0.026611231 = product of:
          0.079833694 = sum of:
            0.079833694 = weight(_text_:22 in 6672) [ClassicSimilarity], result of:
              0.079833694 = score(doc=6672,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5416616 = fieldWeight in 6672, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6672)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    31. 7.1996 9:22:19
  18. New tools for human translators (1997) 0.01
    0.008870411 = product of:
      0.026611231 = sum of:
        0.026611231 = product of:
          0.079833694 = sum of:
            0.079833694 = weight(_text_:22 in 1179) [ClassicSimilarity], result of:
              0.079833694 = score(doc=1179,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5416616 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1179)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    31. 7.1996 9:22:19
  19. Baayen, R.H.; Lieber, H.: Word frequency distributions and lexical semantics (1997) 0.01
    0.008870411 = product of:
      0.026611231 = sum of:
        0.026611231 = product of:
          0.079833694 = sum of:
            0.079833694 = weight(_text_:22 in 3117) [ClassicSimilarity], result of:
              0.079833694 = score(doc=3117,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5416616 = fieldWeight in 3117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3117)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    28. 2.1999 10:48:22
  20. ¬Der Student aus dem Computer (2023) 0.01
    0.008870411 = product of:
      0.026611231 = sum of:
        0.026611231 = product of:
          0.079833694 = sum of:
            0.079833694 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.079833694 = score(doc=1079,freq=2.0), product of:
                0.14738666 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208847 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    27. 1.2023 16:22:55

Years

Languages

  • e 77
  • d 33
  • ru 2
  • More… Less…

Types

  • a 94
  • el 12
  • m 10
  • s 4
  • x 3
  • p 2
  • d 1
  • More… Less…