Search (256 results, page 2 of 13)

  • × theme_ss:"Computerlinguistik"
  1. Dreehsen, B.: ¬Der PC als Dolmetscher (1998) 0.01
    0.008328033 = product of:
      0.07911631 = sum of:
        0.060324617 = weight(_text_:deutsche in 1474) [ClassicSimilarity], result of:
          0.060324617 = score(doc=1474,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.52175736 = fieldWeight in 1474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.078125 = fieldNorm(doc=1474)
        0.018791689 = weight(_text_:und in 1474) [ClassicSimilarity], result of:
          0.018791689 = score(doc=1474,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 1474, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1474)
      0.10526316 = coord(2/19)
    
    Abstract
    Für englische Web-Seiten und fremdsprachige Korrespondenz ist Übersetzungssoftware hilfreich, die per Mausklick den Text ins Deutsche überträgt und umgekehrt. Die neuen Versionen geben den Inhalt sinngemäß bereits gut wieder. CHIP hat die Leistungen von 5 Programmen getestet
  2. Deutsche Forschungsgemeinschaft: Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG (2023) 0.01
    0.007820865 = product of:
      0.07429822 = sum of:
        0.04825969 = weight(_text_:deutsche in 991) [ClassicSimilarity], result of:
          0.04825969 = score(doc=991,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.02603853 = weight(_text_:und in 991) [ClassicSimilarity], result of:
          0.02603853 = score(doc=991,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.47985753 = fieldWeight in 991, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
      0.10526316 = coord(2/19)
    
    Abstract
    Die Einsatzmöglichkeiten von "Künstlicher Intelligenz" (KI) beschäftigen derzeit große Teile der Gesellschaft. Anlass ist insbesondere die Entwicklung generativer Modelle für die Text- und Bilderstellung wie "ChatGPT" und "DALL-E", die eine Interaktion zwischen Mensch und technischem System in gesprochener oder Text-/Bildsprache ermöglichen, und ihre Bereitstellung für die Allgemeinheit.
  3. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.01
    0.0071648234 = product of:
      0.06806582 = sum of:
        0.0496538 = weight(_text_:literatur in 4891) [ClassicSimilarity], result of:
          0.0496538 = score(doc=4891,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.42339188 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.01841202 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.01841202 = score(doc=4891,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.10526316 = coord(2/19)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  4. Computerlinguistik und Sprachtechnologie : Eine Einführung (2001) 0.01
    0.0069459067 = product of:
      0.06598611 = sum of:
        0.037240352 = weight(_text_:literatur in 1749) [ClassicSimilarity], result of:
          0.037240352 = score(doc=1749,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.31754392 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
        0.028745757 = weight(_text_:und in 1749) [ClassicSimilarity], result of:
          0.028745757 = score(doc=1749,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.5297484 = fieldWeight in 1749, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
      0.10526316 = coord(2/19)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  5. Thomas, I.S.; Wang, J.; GPT-3: Was euch zu Menschen macht : Antworten einer künstlichen Intelligenz auf die großen Fragen des Lebens (2022) 0.01
    0.006901797 = product of:
      0.06556707 = sum of:
        0.013809016 = weight(_text_:und in 878) [ClassicSimilarity], result of:
          0.013809016 = score(doc=878,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2544829 = fieldWeight in 878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.05175805 = weight(_text_:leben in 878) [ClassicSimilarity], result of:
          0.05175805 = score(doc=878,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.37435693 = fieldWeight in 878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
      0.10526316 = coord(2/19)
    
    Abstract
    Das erste durch KI verfasste Weisheitsbuch. »Die Künstliche Intelligenz sieht den Menschen, wie er ist. Es gibt für sie keinen Gott, keine Rituale, keinen Himmel, keine Hölle, keine Engel. Es gibt für sie nur empfindsame Wesen.« GPT-3. Dieses Buch enthält Weisheitstexte, die durch die modernste KI im Bereich der Spracherkennung verfasst wurden. Es ist die GPT-3, die durch die Technikerin Jasmine Wang gesteuert wird. Die originären Texte von GPT-3 werden von dem international bekannten Dichter Iain S. Thomas kuratiert. Die Basis von GPT-3 reicht von den Weisheitsbücher der Menschheit bis hin zu modernen Texten. GPT-3 antwortet auf Fragen wie: Was macht den Mensch zum Menschen? Was bedeutet es zu lieben? Wie führen wir ein erfülltes Leben? etc. und ist in der Lage, eigene Sätze zu kreieren. So wird eine zeitgenössische und noch nie dagewesene Erforschung von Sinn und Spiritualität geschaffen, die zu einem neuen Verständnis dessen inspiriert, was uns zu Menschen macht.
  6. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.01
    0.006662425 = product of:
      0.06329304 = sum of:
        0.04825969 = weight(_text_:deutsche in 5356) [ClassicSimilarity], result of:
          0.04825969 = score(doc=5356,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 5356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
        0.015033351 = weight(_text_:und in 5356) [ClassicSimilarity], result of:
          0.015033351 = score(doc=5356,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 5356, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
      0.10526316 = coord(2/19)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  7. Hahn, U.: Automatische Sprachverarbeitung (2023) 0.01
    0.006403164 = product of:
      0.060830057 = sum of:
        0.04222723 = weight(_text_:deutsche in 790) [ClassicSimilarity], result of:
          0.04222723 = score(doc=790,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36523014 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.018602824 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.018602824 = score(doc=790,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
      0.10526316 = coord(2/19)
    
    Abstract
    Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Manhart, K.: Digitales Kauderwelsch : Online-Übersetzungsdienste (2004) 0.01
    0.0063404166 = product of:
      0.060233958 = sum of:
        0.04265594 = weight(_text_:deutsche in 2077) [ClassicSimilarity], result of:
          0.04265594 = score(doc=2077,freq=4.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36893815 = fieldWeight in 2077, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2077)
        0.017578015 = weight(_text_:und in 2077) [ClassicSimilarity], result of:
          0.017578015 = score(doc=2077,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.32394084 = fieldWeight in 2077, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2077)
      0.10526316 = coord(2/19)
    
    Abstract
    Eine englische oder französische Website mal schnell ins Deutsche übersetzen - nichts einfacher als das. OnlineÜbersetzungsdienste versprechen den Sprachtransfer per Mausklick und zum Nulltarif. Doch was taugen sie wirklich? Online-Übersetzungsdienste wollen die Sprachbarriere im WWW beseitigen. Die automatischen Übersetzer versprechen, die E-Mail-Korrespondenz verständlich zu machen und das deutschsprachige Surfen in fremdsprachigen Webangeboten zu ermöglichen. Englische, spanische oder gar chinesische EMails und Websites können damit per Mausklick schnell in die eigene Sprache übertragen werden. Auch komplizierte englische Bedienungsanleitungen oder russische Nachrichten sollen für die Dienste kein Problem sein. Und der eine oder andere Homepage-Besitzer träumt davon, mit Hilfe der digitalen Übersetzungshelfer seine deutsche Website in perfektem Englisch online stellen zu können - in der Hoffung auf internationale Kontakte und höhere Besucherzahlen. Das klingt schön - doch die Realität sieht anders aus. Wer jemals einen solchen Dienst konsultiert hat, reibt sich meist verwundert die Augen über die gebotenen Ergebnisse. Schon einfache Sätze bereiten vielen Online-Über setzern Probleme-und sorgen unfreiwillig für Humor. Aus der CNN-Meldung "Iraq blast injures 31 U.S. troops" wird im Deutschen der Satz: "Der Irak Knall verletzt 31 Vereinigte Staaten Truppen." Sites mit schwierigem Satzbau können die Übersetzer oft nur unverständlich wiedergeben. Den Satz "The Slider is equipped with a brilliant color screen and sports an innovative design that slides open with a push of your thumb" übersetzt der bekannteste Online-Dolmetscher Babelfish mit folgendem Kauderwelsch: "Der Schweber wird mit einem leuchtenden Farbe Schirm ausgerüstet und ein erfinderisches Design sports, das geöffnetes mit einem Stoß Ihres Daumens schiebt." Solch dadaistische Texte muten alle Übersetzer ihren Nutzern zu.
  9. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.01
    0.006327651 = product of:
      0.060112685 = sum of:
        0.036194768 = weight(_text_:deutsche in 5882) [ClassicSimilarity], result of:
          0.036194768 = score(doc=5882,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.3130544 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.023917917 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.023917917 = score(doc=5882,freq=18.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.10526316 = coord(2/19)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  10. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.01
    0.0062692207 = product of:
      0.059557594 = sum of:
        0.043447077 = weight(_text_:literatur in 5809) [ClassicSimilarity], result of:
          0.043447077 = score(doc=5809,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.016110517 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.016110517 = score(doc=5809,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.10526316 = coord(2/19)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  11. Wittek, B.R.: Schöne neue Abfragewelt : Datenbank-Zugangssysteme auf der Basis natürlicher Sprache (1994) 0.01
    0.0061989343 = product of:
      0.058889873 = sum of:
        0.04825969 = weight(_text_:deutsche in 8791) [ClassicSimilarity], result of:
          0.04825969 = score(doc=8791,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
        0.010630185 = weight(_text_:und in 8791) [ClassicSimilarity], result of:
          0.010630185 = score(doc=8791,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19590102 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
      0.10526316 = coord(2/19)
    
    Abstract
    Kann die deutsche Sprache als Datenbankabfragesprache eingesetzt werden? Seit Jahrzehnten wurde diese Frage verneint, weil klare Kriterien für die Formalisierung natürlicher Sprache und Werkzeuge für eine kostengünstige Durchführung fehlten. Allerdings darf diese Frage wieder gestellt werden, seitdem Techniken für deren Formalisierung zunehmend zur Verfügung stehen. Dieser Artikel beschreibt, was auf dem Gebiet der natürlichen Sprache als Basis für die Datenbankabfrage heute schon möglich ist
  12. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.01
    0.0055555482 = product of:
      0.052777708 = sum of:
        0.02109362 = weight(_text_:und in 564) [ClassicSimilarity], result of:
          0.02109362 = score(doc=564,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38872904 = fieldWeight in 564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
        0.031684086 = product of:
          0.06336817 = sum of:
            0.06336817 = weight(_text_:allgemein in 564) [ClassicSimilarity], result of:
              0.06336817 = score(doc=564,freq=4.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.49259502 = fieldWeight in 564, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=564)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesondere für Module im Bachelor-Studium geeignet macht.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  13. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.01
    0.0051038587 = product of:
      0.048486657 = sum of:
        0.024129845 = weight(_text_:deutsche in 5218) [ClassicSimilarity], result of:
          0.024129845 = score(doc=5218,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.20870294 = fieldWeight in 5218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
        0.024356814 = weight(_text_:und in 5218) [ClassicSimilarity], result of:
          0.024356814 = score(doc=5218,freq=42.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.44886562 = fieldWeight in 5218, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
      0.10526316 = coord(2/19)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  14. Sprachtechnologie : ein Überblick (2012) 0.00
    0.0049797585 = product of:
      0.047307707 = sum of:
        0.031033624 = weight(_text_:literatur in 1750) [ClassicSimilarity], result of:
          0.031033624 = score(doc=1750,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.26461992 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.016274082 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.016274082 = score(doc=1750,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.10526316 = coord(2/19)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  15. Koch, C.: ¬Die Schreibmaschine : Die SMS-Worterkennung T9 soll unser Leben erleichtern - das gelingt ihr nicht immer (2005) 0.00
    0.0047262125 = product of:
      0.04489902 = sum of:
        0.014706823 = weight(_text_:und in 4098) [ClassicSimilarity], result of:
          0.014706823 = score(doc=4098,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27102837 = fieldWeight in 4098, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4098)
        0.030192196 = weight(_text_:leben in 4098) [ClassicSimilarity], result of:
          0.030192196 = score(doc=4098,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.21837488 = fieldWeight in 4098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4098)
      0.10526316 = coord(2/19)
    
    Content
    "Manchmal kommt eine SMS, und es steht da »Ich habe nehmen Zug verpasst« - und der Empfänger ist ein wenig ratlos. Der Grund, weshalb solch kryptische Nachrichten entstehen, ist das Computerprogramm im Handy, T9 genannt, das seit ein paar Jahren schon aus der Reihenfolge der gedrückten Zahlentasten errät, welches Wort gemeint sein könnte, und welches die SMS-Tipperei eigentlich erleichtern sollte. Denn zuvor war es noch nötig, mehrmals auf einer einzigen Taste rumzutippen, um einen einzigen Buchstaben hervorzubringen. Der Nachteil von T9: Manche Wörter teilen sich Kombinationen, die Wörter »nehmen« und »meinen« etwa teilen sich die Reihenfolge der Tasten 6-3-4-6-3-6. Auf 400 Millionen Telefonen pro Jahr wird T9, das für »Text auf neun Tasten« steht, inzwischen weltweit ausgeliefert. Wie funktioniert diese Software? Wieso entscheidet es sich bei 6-3-4-6-3-6 zuerst für »nehmen« und erst bei Widerspruch für »meinen«? Die Amerikanerin Lisa Nathan, T9-Produktmanagerin, erklärt es: »Wenn wir die Wort-Datenbank für eine neue Sprache anlegen, sammeln wir zuerst mehrere Gigabyte an Text aus Zeitungen, Zeitschriften und aus Internet-Seiten und Chaträumen in der jeweiligen Sprache.« Die so zusammengetragenen Wortmassen werden anschließend durchgesehen - offenkundig irrsinnige Wörter aus Chats etwa fliegen raus. Je häufiger ein Wort vorkommt, umso eher erscheint es zuerst auf dem Display.
    Manche Rechtschreibfehler lassen die Programmierer absichtlich drin - schließlich ist ein SMS-Schreiber frustriert, wenn das Programm ein Wort hartnäckig verweigert, von dem er fest glaubt, dass es existieren müsse. So kommt es, dass T9 sogar ein Wort »Rhytmuß« kennt. »Andere Wörter ergänzen wir, Imperative zum Beispiel wie :gib9 oder :nimm9. Die kommen in gedruckten Texten nur selten vor, in Kurzmitteilungen dafür ziemlich oft«, sagt Lisa Nathan. Aber wie kommt es, dass die Worterkennung zwar den Nazi-Jargon von Hitler bis Euthanasie im Programm hat, Wörter, die den Sex beschreiben oder das Einnehmen von Drogen, häufig aber nicht erkennt und die üblichsten Flüche einfach fehlen? »Wir zensieren nicht«, sagt Lisa Nathan. »in unserer Datenbank stehen alle Wörter - sofern sie häufig genug vorkommen. Aber fast alle Handyhersteller lassen Schimpfwörter und Wörter mit sexueller Bedeutung ausblenden.« Der Nazi-Jargon scheint niemand zu stören. Weil Flüche, Spitznamen oder nette Abkürzungen im Programm fehlen, ist T9 neuerdings lernfähig geworden: Wer Wörter vermisst, kann sie der Worterkennung beibringen. Die neuesten Handys lernen sogar automatisch, indem sie die eingehenden SMS nach neuen Wörtern durchsuchen. Am meisten Zeit spart man durch die Funktionen »Wortkomplettierung« oder »Wortvorhersage«, die nicht nur vorschlagen, wie das angefangene Wort enden könnte, sondern auch, welches wohl als nächstes kommt. »Ich bin kein sehr pünktlicher Mensch«, gesteht Lisa Nathan, »und wenn ich das Wort :komme9 tippe, schlägt mir T9 automatisch :etwas später9 als folgende Wörter vor.« Das kann sehr praktisch sein - aber auch sehr nervig. Denn wer will schon ständig an den Namen der Exfreundin Natalie erinnert werden, wenn er nur »nat« für »natürlich« eingegeben hat?"
  16. Manning, C.D.; Schütze, H.: Foundations of statistical natural language processing (2000) 0.00
    0.0045220107 = product of:
      0.0429591 = sum of:
        0.011275014 = weight(_text_:und in 1603) [ClassicSimilarity], result of:
          0.011275014 = score(doc=1603,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.20778441 = fieldWeight in 1603, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1603)
        0.031684086 = product of:
          0.06336817 = sum of:
            0.06336817 = weight(_text_:allgemein in 1603) [ClassicSimilarity], result of:
              0.06336817 = score(doc=1603,freq=4.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.49259502 = fieldWeight in 1603, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1603)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    BK
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Classification
    18.00 (Einzelne Sprachen und Literaturen allgemein)
  17. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.00
    0.004136023 = product of:
      0.03929222 = sum of:
        0.013154183 = weight(_text_:und in 4099) [ClassicSimilarity], result of:
          0.013154183 = score(doc=4099,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 4099, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
        0.026138037 = product of:
          0.052276075 = sum of:
            0.052276075 = weight(_text_:allgemein in 4099) [ClassicSimilarity], result of:
              0.052276075 = score(doc=4099,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.40637016 = fieldWeight in 4099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  18. Byrne, C.C.; McCracken, S.A.: ¬An adaptive thesaurus employing semantic distance, relational inheritance and nominal compound interpretation for linguistic support of information retrieval (1999) 0.00
    0.0037734555 = product of:
      0.035847828 = sum of:
        0.015945276 = weight(_text_:und in 4483) [ClassicSimilarity], result of:
          0.015945276 = score(doc=4483,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 4483, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4483)
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 4483) [ClassicSimilarity], result of:
              0.0398051 = score(doc=4483,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 4483, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4483)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    15. 3.2000 10:22:37
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  19. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.00
    0.0037734555 = product of:
      0.035847828 = sum of:
        0.015945276 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.015945276 = score(doc=5429,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.0398051 = score(doc=5429,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Source
    c't. 2000, H.22, S.230-231
  20. Jurafsky, D.; Martin, J.H.: Speech and language processing : ani ntroduction to natural language processing, computational linguistics and speech recognition (2009) 0.00
    0.003768342 = product of:
      0.03579925 = sum of:
        0.009395844 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.009395844 = score(doc=1081,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.17315367 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.026403405 = product of:
          0.05280681 = sum of:
            0.05280681 = weight(_text_:allgemein in 1081) [ClassicSimilarity], result of:
              0.05280681 = score(doc=1081,freq=4.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.41049585 = fieldWeight in 1081, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1081)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein

Years

Languages

  • d 195
  • e 57
  • m 4
  • ru 1
  • More… Less…

Types

  • a 183
  • m 43
  • el 35
  • s 15
  • x 11
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications