-
Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004)
0.20
0.19573344 = product of:
0.26097792 = sum of:
0.0625755 = product of:
0.18772648 = sum of:
0.18772648 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
0.18772648 = score(doc=562,freq=2.0), product of:
0.33402216 = queryWeight, product of:
8.478011 = idf(docFreq=24, maxDocs=44218)
0.039398648 = queryNorm
0.56201804 = fieldWeight in 562, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.478011 = idf(docFreq=24, maxDocs=44218)
0.046875 = fieldNorm(doc=562)
0.33333334 = coord(1/3)
0.18772648 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
0.18772648 = score(doc=562,freq=2.0), product of:
0.33402216 = queryWeight, product of:
8.478011 = idf(docFreq=24, maxDocs=44218)
0.039398648 = queryNorm
0.56201804 = fieldWeight in 562, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.478011 = idf(docFreq=24, maxDocs=44218)
0.046875 = fieldNorm(doc=562)
0.010675946 = product of:
0.032027837 = sum of:
0.032027837 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
0.032027837 = score(doc=562,freq=2.0), product of:
0.13796735 = queryWeight, product of:
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.039398648 = queryNorm
0.23214069 = fieldWeight in 562, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.046875 = fieldNorm(doc=562)
0.33333334 = coord(1/3)
0.75 = coord(3/4)
- Content
- Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
- Date
- 8. 1.2013 10:22:32
-
Noever, D.; Ciolino, M.: ¬The Turing deception (2022)
0.13
0.125151 = product of:
0.250302 = sum of:
0.0625755 = product of:
0.18772648 = sum of:
0.18772648 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
0.18772648 = score(doc=862,freq=2.0), product of:
0.33402216 = queryWeight, product of:
8.478011 = idf(docFreq=24, maxDocs=44218)
0.039398648 = queryNorm
0.56201804 = fieldWeight in 862, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.478011 = idf(docFreq=24, maxDocs=44218)
0.046875 = fieldNorm(doc=862)
0.33333334 = coord(1/3)
0.18772648 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
0.18772648 = score(doc=862,freq=2.0), product of:
0.33402216 = queryWeight, product of:
8.478011 = idf(docFreq=24, maxDocs=44218)
0.039398648 = queryNorm
0.56201804 = fieldWeight in 862, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.478011 = idf(docFreq=24, maxDocs=44218)
0.046875 = fieldNorm(doc=862)
0.5 = coord(2/4)
- Source
- https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
-
Rolland, M.T.: Sprachverarbeitung auf der Basis der semantikorientierten Grammatik (1995)
0.11
0.11384408 = product of:
0.45537633 = sum of:
0.45537633 = weight(_text_:grammatik in 5273) [ClassicSimilarity], result of:
0.45537633 = score(doc=5273,freq=2.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
1.4294108 = fieldWeight in 5273, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.125 = fieldNorm(doc=5273)
0.25 = coord(1/4)
-
Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996)
0.11
0.11384408 = product of:
0.45537633 = sum of:
0.45537633 = weight(_text_:grammatik in 5356) [ClassicSimilarity], result of:
0.45537633 = score(doc=5356,freq=8.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
1.4294108 = fieldWeight in 5356, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.0625 = fieldNorm(doc=5356)
0.25 = coord(1/4)
- Abstract
- Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
-
Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000)
0.11
0.10507321 = product of:
0.21014643 = sum of:
0.20124981 = weight(_text_:grammatik in 734) [ClassicSimilarity], result of:
0.20124981 = score(doc=734,freq=4.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.6317163 = fieldWeight in 734, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.0390625 = fieldNorm(doc=734)
0.008896622 = product of:
0.026689865 = sum of:
0.026689865 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
0.026689865 = score(doc=734,freq=2.0), product of:
0.13796735 = queryWeight, product of:
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.039398648 = queryNorm
0.19345059 = fieldWeight in 734, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.0390625 = fieldNorm(doc=734)
0.33333334 = coord(1/3)
0.5 = coord(2/4)
- Abstract
- Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
- Date
- 19. 7.2002 14:22:31
-
Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012)
0.10
0.09920122 = product of:
0.19840243 = sum of:
0.18772648 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
0.18772648 = score(doc=563,freq=2.0), product of:
0.33402216 = queryWeight, product of:
8.478011 = idf(docFreq=24, maxDocs=44218)
0.039398648 = queryNorm
0.56201804 = fieldWeight in 563, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.478011 = idf(docFreq=24, maxDocs=44218)
0.046875 = fieldNorm(doc=563)
0.010675946 = product of:
0.032027837 = sum of:
0.032027837 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
0.032027837 = score(doc=563,freq=2.0), product of:
0.13796735 = queryWeight, product of:
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.039398648 = queryNorm
0.23214069 = fieldWeight in 563, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.046875 = fieldNorm(doc=563)
0.33333334 = coord(1/3)
0.5 = coord(2/4)
- Content
- A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
- Date
- 10. 1.2013 19:22:47
-
Wilhelm, K.: ¬Die Macht der Grammatik (2000)
0.07
0.07115255 = product of:
0.2846102 = sum of:
0.2846102 = weight(_text_:grammatik in 5510) [ClassicSimilarity], result of:
0.2846102 = score(doc=5510,freq=2.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.8933818 = fieldWeight in 5510, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.078125 = fieldNorm(doc=5510)
0.25 = coord(1/4)
-
Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999)
0.06
0.060374945 = product of:
0.24149978 = sum of:
0.24149978 = weight(_text_:grammatik in 1399) [ClassicSimilarity], result of:
0.24149978 = score(doc=1399,freq=4.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.7580596 = fieldWeight in 1399, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.046875 = fieldNorm(doc=1399)
0.25 = coord(1/4)
- Classification
- ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
- RVK
- ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
-
Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997)
0.06
0.05692204 = product of:
0.22768816 = sum of:
0.22768816 = weight(_text_:grammatik in 467) [ClassicSimilarity], result of:
0.22768816 = score(doc=467,freq=2.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.7147054 = fieldWeight in 467, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.0625 = fieldNorm(doc=467)
0.25 = coord(1/4)
- Abstract
- Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
-
Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997)
0.06
0.05692204 = product of:
0.22768816 = sum of:
0.22768816 = weight(_text_:grammatik in 468) [ClassicSimilarity], result of:
0.22768816 = score(doc=468,freq=2.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.7147054 = fieldWeight in 468, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.0625 = fieldNorm(doc=468)
0.25 = coord(1/4)
- Abstract
- Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
-
Lobin, H: Computerlinguistik und Texttechnologie (2010)
0.04
0.04269153 = product of:
0.17076612 = sum of:
0.17076612 = weight(_text_:grammatik in 564) [ClassicSimilarity], result of:
0.17076612 = score(doc=564,freq=2.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.53602904 = fieldWeight in 564, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.046875 = fieldNorm(doc=564)
0.25 = coord(1/4)
- Abstract
- Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesondere für Module im Bachelor-Studium geeignet macht.
-
Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008)
0.04
0.035576276 = product of:
0.1423051 = sum of:
0.1423051 = weight(_text_:grammatik in 2731) [ClassicSimilarity], result of:
0.1423051 = score(doc=2731,freq=2.0), product of:
0.31857625 = queryWeight, product of:
8.085969 = idf(docFreq=36, maxDocs=44218)
0.039398648 = queryNorm
0.4466909 = fieldWeight in 2731, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.085969 = idf(docFreq=36, maxDocs=44218)
0.0390625 = fieldNorm(doc=2731)
0.25 = coord(1/4)
- Abstract
- Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
-
Melby, A.: Some notes on 'The proper place of men and machines in language translation' (1997)
0.01
0.0125118 = product of:
0.0500472 = sum of:
0.0500472 = product of:
0.0750708 = sum of:
0.03770499 = weight(_text_:29 in 330) [ClassicSimilarity], result of:
0.03770499 = score(doc=330,freq=2.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.27205724 = fieldWeight in 330, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.0546875 = fieldNorm(doc=330)
0.03736581 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
0.03736581 = score(doc=330,freq=2.0), product of:
0.13796735 = queryWeight, product of:
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.039398648 = queryNorm
0.2708308 = fieldWeight in 330, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.0546875 = fieldNorm(doc=330)
0.6666667 = coord(2/3)
0.25 = coord(1/4)
- Date
- 31. 7.1996 9:22:19
- Source
- Machine translation. 12(1997) nos.1/2, S.29-34
-
Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004)
0.01
0.010779551 = product of:
0.043118205 = sum of:
0.043118205 = product of:
0.064677306 = sum of:
0.026932137 = weight(_text_:29 in 2541) [ClassicSimilarity], result of:
0.026932137 = score(doc=2541,freq=2.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.19432661 = fieldWeight in 2541, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.0390625 = fieldNorm(doc=2541)
0.037745167 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
0.037745167 = score(doc=2541,freq=4.0), product of:
0.13796735 = queryWeight, product of:
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.039398648 = queryNorm
0.27358043 = fieldWeight in 2541, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.0390625 = fieldNorm(doc=2541)
0.6666667 = coord(2/3)
0.25 = coord(1/4)
- Date
- 14. 8.2004 17:22:56
- Source
- Online. 28(2004) no.3, S.22-29
-
Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974)
0.01
0.008887152 = product of:
0.03554861 = sum of:
0.03554861 = product of:
0.10664582 = sum of:
0.10664582 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
0.10664582 = score(doc=4251,freq=4.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.7694941 = fieldWeight in 4251, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.109375 = fieldNorm(doc=4251)
0.33333334 = coord(1/3)
0.25 = coord(1/4)
- Date
- 29. 1.2011 14:56:29
-
Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023)
0.01
0.007774638 = product of:
0.031098552 = sum of:
0.031098552 = product of:
0.093295656 = sum of:
0.093295656 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
0.093295656 = score(doc=925,freq=6.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.6731671 = fieldWeight in 925, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.078125 = fieldNorm(doc=925)
0.33333334 = coord(1/3)
0.25 = coord(1/4)
- Date
- 29. 3.2023 13:23:26
29. 3.2023 13:29:19
-
Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993)
0.01
0.0071819033 = product of:
0.028727613 = sum of:
0.028727613 = product of:
0.08618284 = sum of:
0.08618284 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
0.08618284 = score(doc=2140,freq=2.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.6218451 = fieldWeight in 2140, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.125 = fieldNorm(doc=2140)
0.33333334 = coord(1/3)
0.25 = coord(1/4)
- Date
- 4.11.1998 14:30:29
-
Warner, A.J.: Natural language processing (1987)
0.01
0.007117297 = product of:
0.028469188 = sum of:
0.028469188 = product of:
0.08540756 = sum of:
0.08540756 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
0.08540756 = score(doc=337,freq=2.0), product of:
0.13796735 = queryWeight, product of:
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.039398648 = queryNorm
0.61904186 = fieldWeight in 337, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5018296 = idf(docFreq=3622, maxDocs=44218)
0.125 = fieldNorm(doc=337)
0.33333334 = coord(1/3)
0.25 = coord(1/4)
- Source
- Annual review of information science and technology. 22(1987), S.79-108
-
Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983)
0.01
0.006284165 = product of:
0.02513666 = sum of:
0.02513666 = product of:
0.07540998 = sum of:
0.07540998 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
0.07540998 = score(doc=450,freq=2.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.5441145 = fieldWeight in 450, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.109375 = fieldNorm(doc=450)
0.33333334 = coord(1/3)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
-
Proszeky, G.: Language technology tools in the translator's practice (1999)
0.01
0.006284165 = product of:
0.02513666 = sum of:
0.02513666 = product of:
0.07540998 = sum of:
0.07540998 = weight(_text_:29 in 6873) [ClassicSimilarity], result of:
0.07540998 = score(doc=6873,freq=2.0), product of:
0.13859212 = queryWeight, product of:
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.039398648 = queryNorm
0.5441145 = fieldWeight in 6873, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.5176873 = idf(docFreq=3565, maxDocs=44218)
0.109375 = fieldNorm(doc=6873)
0.33333334 = coord(1/3)
0.25 = coord(1/4)
- Date
- 30. 3.2002 18:29:40