Search (75 results, page 1 of 4)

  • × theme_ss:"Computerlinguistik"
  1. Egger, W.: Helferlein für jedermann : Elektronische Wörterbücher (2004) 0.11
    0.10941664 = product of:
      0.21883328 = sum of:
        0.16138218 = weight(_text_:lexikon in 1501) [ClassicSimilarity], result of:
          0.16138218 = score(doc=1501,freq=2.0), product of:
            0.23305228 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.037184004 = queryNorm
            0.692472 = fieldWeight in 1501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.078125 = fieldNorm(doc=1501)
        0.0574511 = product of:
          0.1149022 = sum of:
            0.1149022 = weight(_text_:2004 in 1501) [ClassicSimilarity], result of:
              0.1149022 = score(doc=1501,freq=5.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.734723 = fieldWeight in 1501, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1501)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Series
    Software: Der große Lexikon-Ratgeber
    Source
    CD-Info. 2004, H.12, S.40-41
    Year
    2004
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.08
    0.07907841 = product of:
      0.15815683 = sum of:
        0.035434835 = product of:
          0.17717417 = sum of:
            0.17717417 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.17717417 = score(doc=562,freq=2.0), product of:
                0.3152464 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.037184004 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.12272199 = sum of:
          0.09249448 = weight(_text_:2004 in 562) [ClassicSimilarity], result of:
            0.09249448 = score(doc=562,freq=9.0), product of:
              0.15638846 = queryWeight, product of:
                4.2057996 = idf(docFreq=1791, maxDocs=44218)
                0.037184004 = queryNorm
              0.59144056 = fieldWeight in 562, product of:
                3.0 = tf(freq=9.0), with freq of:
                  9.0 = termFreq=9.0
                4.2057996 = idf(docFreq=1791, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
          0.030227512 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.030227512 = score(doc=562,freq=2.0), product of:
              0.13021204 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037184004 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Source
    Proceedings of the 4th IEEE International Conference on Data Mining (ICDM 2004), 1-4 November 2004, Brighton, UK
    Year
    2004
  3. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.05
    0.046642944 = product of:
      0.09328589 = sum of:
        0.08069109 = weight(_text_:lexikon in 734) [ClassicSimilarity], result of:
          0.08069109 = score(doc=734,freq=2.0), product of:
            0.23305228 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.037184004 = queryNorm
            0.346236 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.012594798 = product of:
          0.025189595 = sum of:
            0.025189595 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.025189595 = score(doc=734,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  4. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.04
    0.0425536 = product of:
      0.0851072 = sum of:
        0.06455287 = weight(_text_:lexikon in 548) [ClassicSimilarity], result of:
          0.06455287 = score(doc=548,freq=2.0), product of:
            0.23305228 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.037184004 = queryNorm
            0.2769888 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.020554328 = product of:
          0.041108657 = sum of:
            0.041108657 = weight(_text_:2004 in 548) [ClassicSimilarity], result of:
              0.041108657 = score(doc=548,freq=4.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.26286247 = fieldWeight in 548, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Object
    Brockhaus Multimedial 2004
  5. dpa: 14 Forscher mit viel Geld angelockt : Wolfgang-Paul-Preis (2001) 0.02
    0.024207328 = product of:
      0.09682931 = sum of:
        0.09682931 = weight(_text_:lexikon in 6814) [ClassicSimilarity], result of:
          0.09682931 = score(doc=6814,freq=2.0), product of:
            0.23305228 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.037184004 = queryNorm
            0.4154832 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
      0.25 = coord(1/4)
    
    Content
    Darin. "Die Sprachwissenschaftlerin Christiane Fellbaum (dpa-Bild) wird ihr Preisgeld für das an der Berlin-Brandenburgischen Akademie der Wissenschaften zu erstellende "Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts" einsetzen. Sie setzt mit ihrem Computer dort an, wo konventionelle Wörterbücher nicht mehr mithalten können. Sie stellt per Knopfdruck Wortverbindungen her, die eine Sprache so reich an Bildern und Vorstellungen - und damit einzigartig - machen. Ihr elektronisches Lexikon aus über 500 Millionen Wörtern soll später als Datenbank zugänglich sein. Seine Grundlage ist die deutsche Sprache der vergangenen hundert Jahre - ein repräsentativer Querschnitt, zusammengestellt aus Literatur, Zeitungsdeutsch, Fachbuchsprache, Werbetexten und niedergeschriebener Umgangssprache. Wo ein Wörterbuch heute nur ein Wort mit Synonymen oder wenigen Verwendungsmöglichkeiten präsentiert, spannt die Forscherin ein riesiges Netz von Wortverbindungen. Bei Christiane Fellbaums Systematik heißt es beispielsweise nicht nur "verlieren", sondern auch noch "den Faden" oder "die Geduld" verlieren - samt allen möglichen weiteren Kombinationen, die der Computer wie eine Suchmaschine in seinen gespeicherten Texten findet."
  6. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.02
    0.02326864 = product of:
      0.09307456 = sum of:
        0.09307456 = sum of:
          0.0574511 = weight(_text_:2004 in 2541) [ClassicSimilarity], result of:
            0.0574511 = score(doc=2541,freq=5.0), product of:
              0.15638846 = queryWeight, product of:
                4.2057996 = idf(docFreq=1791, maxDocs=44218)
                0.037184004 = queryNorm
              0.3673615 = fieldWeight in 2541, product of:
                2.236068 = tf(freq=5.0), with freq of:
                  5.0 = termFreq=5.0
                4.2057996 = idf(docFreq=1791, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2541)
          0.035623465 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
            0.035623465 = score(doc=2541,freq=4.0), product of:
              0.13021204 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037184004 = queryNorm
              0.27358043 = fieldWeight in 2541, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2541)
      0.25 = coord(1/4)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
    Year
    2004
  7. Barriere, C.: Building a concept hierarchy from corpus analysis (2004) 0.02
    0.02298044 = product of:
      0.09192176 = sum of:
        0.09192176 = product of:
          0.18384352 = sum of:
            0.18384352 = weight(_text_:2004 in 6787) [ClassicSimilarity], result of:
              0.18384352 = score(doc=6787,freq=5.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                1.1755568 = fieldWeight in 6787, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.125 = fieldNorm(doc=6787)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Terminology. 10(2004) no.2, S.241-264
    Year
    2004
  8. Kiss, T.: Anmerkungen zur scheinbaren Konkurrenz von numerischen und symbolischen Verfahren in der Computerlinguistik (2002) 0.02
    0.016138218 = product of:
      0.06455287 = sum of:
        0.06455287 = weight(_text_:lexikon in 1752) [ClassicSimilarity], result of:
          0.06455287 = score(doc=1752,freq=2.0), product of:
            0.23305228 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.037184004 = queryNorm
            0.2769888 = fieldWeight in 1752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
      0.25 = coord(1/4)
    
    Abstract
    Man kann wohl abschließend festhalten, dass von einer Überlegenheit statistischer Verfahren zumindest im Bereich des Tagging eigentlich nicht gesprochen werden sollte. Darüber hinaus muss die Opposition zwischen regelbasierten und numerischen Verfahren hier aufgeweicht werden, denn auch die statistischen Verfahren verwenden Regelsysteme. Selbst beim Lernen ohne Referenzkorpus ist ja zumindest eine Zuordnung der Wörter zu einem Lexikon bzw. auch eine heuristische Erkennung unbekannter Wörter nach Regeln notwendig. Statistische Verfahren haben - und dies wurde hier wahrscheinlich nicht ausreichend betont - durchaus ihre Berechtigung, sie sind nützlich; sie gestatten, insbesondere im Vergleich zur Introspektion, eine unmittelbarere und breitere Heranführung an das Phänomen Sprache. Die vorhandenen umfangreichen elektronischen Korpora verlangen nahezu danach, Sprache auch mit statistischen Mitteln zu untersuchen. Allerdings können die statistischen Verfahren die regelbasierten Verfahren nicht ersetzen. Somit muss dem Diktum vom "Es geht nicht anders" deutlich widersprochen werden. Dass die statistischen Verfahren zur Zeit so en vogue sind und die regelbasierten Verfahren aussehen lassen wie eine alte Dallas-Folge, mag wohl auch daran liegen, dass zu viele Vertreter des alten Paradigmas nicht die Energie aufbringen, sich dem neuen Paradigma so weit zu öffnen, dass eine kritische Auseinandersetzung mit dem neuen auf der Basis des alten möglich wird. Die Mathematik ist eine geachtete, weil schwierige Wissenschaft, die statistische Sprachverarbeitung ist eine gefürchtete, weil in ihren Eigenschaften oftmals nicht gründlich genug betrachtete Disziplin.
  9. Chieu, H.L.; Lee, Y.K.: Query based event extraction along a timeline (2004) 0.01
    0.013350428 = product of:
      0.053401712 = sum of:
        0.053401712 = product of:
          0.106803425 = sum of:
            0.106803425 = weight(_text_:2004 in 4108) [ClassicSimilarity], result of:
              0.106803425 = score(doc=4108,freq=3.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.6829367 = fieldWeight in 4108, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4108)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Year
    2004
  10. Liu, S.; Liu, F.; Yu, C.; Meng, W.: ¬An effective approach to document retrieval via utilizing WordNet and recognizing phrases (2004) 0.01
    0.011125357 = product of:
      0.044501428 = sum of:
        0.044501428 = product of:
          0.089002855 = sum of:
            0.089002855 = weight(_text_:2004 in 4078) [ClassicSimilarity], result of:
              0.089002855 = score(doc=4078,freq=3.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.56911397 = fieldWeight in 4078, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4078)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Year
    2004
  11. Xu, J.; Weischedel, R.; Licuanan, A.: Evaluation of an extraction-based approach to answering definitional questions (2004) 0.01
    0.011125357 = product of:
      0.044501428 = sum of:
        0.044501428 = product of:
          0.089002855 = sum of:
            0.089002855 = weight(_text_:2004 in 4107) [ClassicSimilarity], result of:
              0.089002855 = score(doc=4107,freq=3.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.56911397 = fieldWeight in 4107, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4107)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Year
    2004
  12. Computational linguistics and intelligent text processing : second international conference; Proceedings. CICLing 2001, Mexico City, Mexiko, 18.-24.2.2001 (2001) 0.01
    0.010900579 = product of:
      0.043602318 = sum of:
        0.043602318 = product of:
          0.087204635 = sum of:
            0.087204635 = weight(_text_:2004 in 3177) [ClassicSimilarity], result of:
              0.087204635 = score(doc=3177,freq=2.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.5576155 = fieldWeight in 3177, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3177)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Series
    Lecture notes in computer science; vol.2004
  13. Warner, A.J.: Natural language processing (1987) 0.01
    0.010075837 = product of:
      0.04030335 = sum of:
        0.04030335 = product of:
          0.0806067 = sum of:
            0.0806067 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.0806067 = score(doc=337,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  14. AI-Sughaiyer, I.A.; AI-Kharashi, I.A.: Arabic morphological analysis techniques : a comprehensive survey (2004) 0.01
    0.010053942 = product of:
      0.040215768 = sum of:
        0.040215768 = product of:
          0.080431536 = sum of:
            0.080431536 = weight(_text_:2004 in 2206) [ClassicSimilarity], result of:
              0.080431536 = score(doc=2206,freq=5.0), product of:
                0.15638846 = queryWeight, product of:
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.037184004 = queryNorm
                0.51430607 = fieldWeight in 2206, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.2057996 = idf(docFreq=1791, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2206)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Journal of the American Society for Information Science and technology. 55(2004) no.3, S.189-213
    Year
    2004
  15. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.01
    0.008858709 = product of:
      0.035434835 = sum of:
        0.035434835 = product of:
          0.17717417 = sum of:
            0.17717417 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.17717417 = score(doc=862,freq=2.0), product of:
                0.3152464 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.037184004 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  16. McMahon, J.G.; Smith, F.J.: Improved statistical language model performance with automatic generated word hierarchies (1996) 0.01
    0.008816358 = product of:
      0.03526543 = sum of:
        0.03526543 = product of:
          0.07053086 = sum of:
            0.07053086 = weight(_text_:22 in 3164) [ClassicSimilarity], result of:
              0.07053086 = score(doc=3164,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.5416616 = fieldWeight in 3164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3164)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Computational linguistics. 22(1996) no.2, S.217-248
  17. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.01
    0.008816358 = product of:
      0.03526543 = sum of:
        0.03526543 = product of:
          0.07053086 = sum of:
            0.07053086 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.07053086 = score(doc=4506,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    8.10.2000 11:52:22
  18. Somers, H.: Example-based machine translation : Review article (1999) 0.01
    0.008816358 = product of:
      0.03526543 = sum of:
        0.03526543 = product of:
          0.07053086 = sum of:
            0.07053086 = weight(_text_:22 in 6672) [ClassicSimilarity], result of:
              0.07053086 = score(doc=6672,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.5416616 = fieldWeight in 6672, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6672)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  19. New tools for human translators (1997) 0.01
    0.008816358 = product of:
      0.03526543 = sum of:
        0.03526543 = product of:
          0.07053086 = sum of:
            0.07053086 = weight(_text_:22 in 1179) [ClassicSimilarity], result of:
              0.07053086 = score(doc=1179,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.5416616 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1179)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  20. Baayen, R.H.; Lieber, H.: Word frequency distributions and lexical semantics (1997) 0.01
    0.008816358 = product of:
      0.03526543 = sum of:
        0.03526543 = product of:
          0.07053086 = sum of:
            0.07053086 = weight(_text_:22 in 3117) [ClassicSimilarity], result of:
              0.07053086 = score(doc=3117,freq=2.0), product of:
                0.13021204 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037184004 = queryNorm
                0.5416616 = fieldWeight in 3117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3117)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    28. 2.1999 10:48:22

Years

Languages

  • e 50
  • d 25

Types

  • a 58
  • m 8
  • el 5
  • x 5
  • s 4
  • p 2
  • d 1
  • More… Less…