Search (183 results, page 1 of 10)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"a"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.16
    0.1627769 = product of:
      0.5154602 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.11665589 = score(doc=562,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.009951275 = product of:
          0.01990255 = sum of:
            0.01990255 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.01990255 = score(doc=562,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.31578946 = coord(6/19)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.13
    0.13302866 = product of:
      0.5055089 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.11665589 = score(doc=862,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.2631579 = coord(5/19)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Rieger, F.: Lügende Computer (2023) 0.02
    0.015365123 = product of:
      0.09731245 = sum of:
        0.015033351 = weight(_text_:und in 912) [ClassicSimilarity], result of:
          0.015033351 = score(doc=912,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.069010735 = weight(_text_:leben in 912) [ClassicSimilarity], result of:
          0.069010735 = score(doc=912,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.4991426 = fieldWeight in 912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.026536733 = score(doc=912,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.15789473 = coord(3/19)
    
    Abstract
    Wir leben gerade in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen "AI"-Systemen, die driften, halluzinieren, lügen und fabulieren können. Schon heute ist die Komplexität moderner Softwaresysteme so hoch, dass es kühn wäre, von striktem Determinismus zu sprechen, jedoch sind auch komplexe Algorithmen darauf angelegt, bei gleichen Eingabedaten gleiche Ergebnisse zu produzieren. Eine Ausnahme sind heute schon Algorithmen, die Zufallszahlen als Teil ihrer Eingabeparameter beinhalten oder neuronale Netze.
    Date
    16. 3.2023 19:22:55
  4. dpa: 14 Forscher mit viel Geld angelockt : Wolfgang-Paul-Preis (2001) 0.01
    0.01377539 = product of:
      0.08724414 = sum of:
        0.036194768 = weight(_text_:deutsche in 6814) [ClassicSimilarity], result of:
          0.036194768 = score(doc=6814,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.3130544 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.037240352 = weight(_text_:literatur in 6814) [ClassicSimilarity], result of:
          0.037240352 = score(doc=6814,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.31754392 = fieldWeight in 6814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
        0.013809016 = weight(_text_:und in 6814) [ClassicSimilarity], result of:
          0.013809016 = score(doc=6814,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2544829 = fieldWeight in 6814, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6814)
      0.15789473 = coord(3/19)
    
    Content
    Darin. "Die Sprachwissenschaftlerin Christiane Fellbaum (dpa-Bild) wird ihr Preisgeld für das an der Berlin-Brandenburgischen Akademie der Wissenschaften zu erstellende "Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts" einsetzen. Sie setzt mit ihrem Computer dort an, wo konventionelle Wörterbücher nicht mehr mithalten können. Sie stellt per Knopfdruck Wortverbindungen her, die eine Sprache so reich an Bildern und Vorstellungen - und damit einzigartig - machen. Ihr elektronisches Lexikon aus über 500 Millionen Wörtern soll später als Datenbank zugänglich sein. Seine Grundlage ist die deutsche Sprache der vergangenen hundert Jahre - ein repräsentativer Querschnitt, zusammengestellt aus Literatur, Zeitungsdeutsch, Fachbuchsprache, Werbetexten und niedergeschriebener Umgangssprache. Wo ein Wörterbuch heute nur ein Wort mit Synonymen oder wenigen Verwendungsmöglichkeiten präsentiert, spannt die Forscherin ein riesiges Netz von Wortverbindungen. Bei Christiane Fellbaums Systematik heißt es beispielsweise nicht nur "verlieren", sondern auch noch "den Faden" oder "die Geduld" verlieren - samt allen möglichen weiteren Kombinationen, die der Computer wie eine Suchmaschine in seinen gespeicherten Texten findet."
  5. Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019) 0.01
    0.009993638 = product of:
      0.09493956 = sum of:
        0.072389536 = weight(_text_:deutsche in 4981) [ClassicSimilarity], result of:
          0.072389536 = score(doc=4981,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.6261088 = fieldWeight in 4981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
        0.022550028 = weight(_text_:und in 4981) [ClassicSimilarity], result of:
          0.022550028 = score(doc=4981,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 4981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
      0.10526316 = coord(2/19)
    
    Abstract
    Deutsche Sprachsoftware ist besser als Google. Sogar professionelle Übersetzer diskutieren schon, ob sie überflüssig werden.
    Source
    https://www.tagesspiegel.de/wirtschaft/sprachsoftware-deepl-und-acrolinx-uebersetzer-ueberfluessig/23884348.html
  6. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.01
    0.009661002 = product of:
      0.091779515 = sum of:
        0.062067248 = weight(_text_:literatur in 3412) [ClassicSimilarity], result of:
          0.062067248 = score(doc=3412,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.52923983 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.02971227 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.02971227 = score(doc=3412,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.10526316 = coord(2/19)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  7. Kunze, C.; Wagner, A.: Anwendungsperspektive des GermaNet, eines lexikalisch-semantischen Netzes für das Deutsche (2001) 0.01
    0.009298402 = product of:
      0.08833481 = sum of:
        0.072389536 = weight(_text_:deutsche in 7456) [ClassicSimilarity], result of:
          0.072389536 = score(doc=7456,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.6261088 = fieldWeight in 7456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=7456)
        0.015945276 = weight(_text_:und in 7456) [ClassicSimilarity], result of:
          0.015945276 = score(doc=7456,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 7456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7456)
      0.10526316 = coord(2/19)
    
    Source
    Chancen und Perspektiven computergestützter Lexikographie. Hrsg.: I. Lemberg u.a
  8. Savoy, J.: ¬A stemming procedure and stopword list for general French Corpora (1999) 0.01
    0.008666037 = product of:
      0.1646547 = sum of:
        0.1646547 = weight(_text_:literaturwissenschaft in 4314) [ClassicSimilarity], result of:
          0.1646547 = score(doc=4314,freq=2.0), product of:
            0.17437136 = queryWeight, product of:
              7.122176 = idf(docFreq=96, maxDocs=44218)
              0.024482876 = queryNorm
            0.9442761 = fieldWeight in 4314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.122176 = idf(docFreq=96, maxDocs=44218)
              0.09375 = fieldNorm(doc=4314)
      0.05263158 = coord(1/19)
    
    Field
    Literaturwissenschaft
  9. Dreehsen, B.: ¬Der PC als Dolmetscher (1998) 0.01
    0.008328033 = product of:
      0.07911631 = sum of:
        0.060324617 = weight(_text_:deutsche in 1474) [ClassicSimilarity], result of:
          0.060324617 = score(doc=1474,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.52175736 = fieldWeight in 1474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.078125 = fieldNorm(doc=1474)
        0.018791689 = weight(_text_:und in 1474) [ClassicSimilarity], result of:
          0.018791689 = score(doc=1474,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 1474, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1474)
      0.10526316 = coord(2/19)
    
    Abstract
    Für englische Web-Seiten und fremdsprachige Korrespondenz ist Übersetzungssoftware hilfreich, die per Mausklick den Text ins Deutsche überträgt und umgekehrt. Die neuen Versionen geben den Inhalt sinngemäß bereits gut wieder. CHIP hat die Leistungen von 5 Programmen getestet
  10. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.01
    0.0071648234 = product of:
      0.06806582 = sum of:
        0.0496538 = weight(_text_:literatur in 4891) [ClassicSimilarity], result of:
          0.0496538 = score(doc=4891,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.42339188 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.01841202 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.01841202 = score(doc=4891,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.10526316 = coord(2/19)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  11. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.01
    0.006662425 = product of:
      0.06329304 = sum of:
        0.04825969 = weight(_text_:deutsche in 5356) [ClassicSimilarity], result of:
          0.04825969 = score(doc=5356,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 5356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
        0.015033351 = weight(_text_:und in 5356) [ClassicSimilarity], result of:
          0.015033351 = score(doc=5356,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 5356, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
      0.10526316 = coord(2/19)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  12. Hahn, U.: Automatische Sprachverarbeitung (2023) 0.01
    0.006403164 = product of:
      0.060830057 = sum of:
        0.04222723 = weight(_text_:deutsche in 790) [ClassicSimilarity], result of:
          0.04222723 = score(doc=790,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36523014 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.018602824 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.018602824 = score(doc=790,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
      0.10526316 = coord(2/19)
    
    Abstract
    Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Manhart, K.: Digitales Kauderwelsch : Online-Übersetzungsdienste (2004) 0.01
    0.0063404166 = product of:
      0.060233958 = sum of:
        0.04265594 = weight(_text_:deutsche in 2077) [ClassicSimilarity], result of:
          0.04265594 = score(doc=2077,freq=4.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36893815 = fieldWeight in 2077, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2077)
        0.017578015 = weight(_text_:und in 2077) [ClassicSimilarity], result of:
          0.017578015 = score(doc=2077,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.32394084 = fieldWeight in 2077, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2077)
      0.10526316 = coord(2/19)
    
    Abstract
    Eine englische oder französische Website mal schnell ins Deutsche übersetzen - nichts einfacher als das. OnlineÜbersetzungsdienste versprechen den Sprachtransfer per Mausklick und zum Nulltarif. Doch was taugen sie wirklich? Online-Übersetzungsdienste wollen die Sprachbarriere im WWW beseitigen. Die automatischen Übersetzer versprechen, die E-Mail-Korrespondenz verständlich zu machen und das deutschsprachige Surfen in fremdsprachigen Webangeboten zu ermöglichen. Englische, spanische oder gar chinesische EMails und Websites können damit per Mausklick schnell in die eigene Sprache übertragen werden. Auch komplizierte englische Bedienungsanleitungen oder russische Nachrichten sollen für die Dienste kein Problem sein. Und der eine oder andere Homepage-Besitzer träumt davon, mit Hilfe der digitalen Übersetzungshelfer seine deutsche Website in perfektem Englisch online stellen zu können - in der Hoffung auf internationale Kontakte und höhere Besucherzahlen. Das klingt schön - doch die Realität sieht anders aus. Wer jemals einen solchen Dienst konsultiert hat, reibt sich meist verwundert die Augen über die gebotenen Ergebnisse. Schon einfache Sätze bereiten vielen Online-Über setzern Probleme-und sorgen unfreiwillig für Humor. Aus der CNN-Meldung "Iraq blast injures 31 U.S. troops" wird im Deutschen der Satz: "Der Irak Knall verletzt 31 Vereinigte Staaten Truppen." Sites mit schwierigem Satzbau können die Übersetzer oft nur unverständlich wiedergeben. Den Satz "The Slider is equipped with a brilliant color screen and sports an innovative design that slides open with a push of your thumb" übersetzt der bekannteste Online-Dolmetscher Babelfish mit folgendem Kauderwelsch: "Der Schweber wird mit einem leuchtenden Farbe Schirm ausgerüstet und ein erfinderisches Design sports, das geöffnetes mit einem Stoß Ihres Daumens schiebt." Solch dadaistische Texte muten alle Übersetzer ihren Nutzern zu.
  14. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.01
    0.006327651 = product of:
      0.060112685 = sum of:
        0.036194768 = weight(_text_:deutsche in 5882) [ClassicSimilarity], result of:
          0.036194768 = score(doc=5882,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.3130544 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.023917917 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.023917917 = score(doc=5882,freq=18.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.10526316 = coord(2/19)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  15. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.01
    0.0062692207 = product of:
      0.059557594 = sum of:
        0.043447077 = weight(_text_:literatur in 5809) [ClassicSimilarity], result of:
          0.043447077 = score(doc=5809,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.016110517 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.016110517 = score(doc=5809,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.10526316 = coord(2/19)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  16. Wittek, B.R.: Schöne neue Abfragewelt : Datenbank-Zugangssysteme auf der Basis natürlicher Sprache (1994) 0.01
    0.0061989343 = product of:
      0.058889873 = sum of:
        0.04825969 = weight(_text_:deutsche in 8791) [ClassicSimilarity], result of:
          0.04825969 = score(doc=8791,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.41740587 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
        0.010630185 = weight(_text_:und in 8791) [ClassicSimilarity], result of:
          0.010630185 = score(doc=8791,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19590102 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
      0.10526316 = coord(2/19)
    
    Abstract
    Kann die deutsche Sprache als Datenbankabfragesprache eingesetzt werden? Seit Jahrzehnten wurde diese Frage verneint, weil klare Kriterien für die Formalisierung natürlicher Sprache und Werkzeuge für eine kostengünstige Durchführung fehlten. Allerdings darf diese Frage wieder gestellt werden, seitdem Techniken für deren Formalisierung zunehmend zur Verfügung stehen. Dieser Artikel beschreibt, was auf dem Gebiet der natürlichen Sprache als Basis für die Datenbankabfrage heute schon möglich ist
  17. Koch, C.: ¬Die Schreibmaschine : Die SMS-Worterkennung T9 soll unser Leben erleichtern - das gelingt ihr nicht immer (2005) 0.00
    0.0047262125 = product of:
      0.04489902 = sum of:
        0.014706823 = weight(_text_:und in 4098) [ClassicSimilarity], result of:
          0.014706823 = score(doc=4098,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27102837 = fieldWeight in 4098, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4098)
        0.030192196 = weight(_text_:leben in 4098) [ClassicSimilarity], result of:
          0.030192196 = score(doc=4098,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.21837488 = fieldWeight in 4098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4098)
      0.10526316 = coord(2/19)
    
    Content
    "Manchmal kommt eine SMS, und es steht da »Ich habe nehmen Zug verpasst« - und der Empfänger ist ein wenig ratlos. Der Grund, weshalb solch kryptische Nachrichten entstehen, ist das Computerprogramm im Handy, T9 genannt, das seit ein paar Jahren schon aus der Reihenfolge der gedrückten Zahlentasten errät, welches Wort gemeint sein könnte, und welches die SMS-Tipperei eigentlich erleichtern sollte. Denn zuvor war es noch nötig, mehrmals auf einer einzigen Taste rumzutippen, um einen einzigen Buchstaben hervorzubringen. Der Nachteil von T9: Manche Wörter teilen sich Kombinationen, die Wörter »nehmen« und »meinen« etwa teilen sich die Reihenfolge der Tasten 6-3-4-6-3-6. Auf 400 Millionen Telefonen pro Jahr wird T9, das für »Text auf neun Tasten« steht, inzwischen weltweit ausgeliefert. Wie funktioniert diese Software? Wieso entscheidet es sich bei 6-3-4-6-3-6 zuerst für »nehmen« und erst bei Widerspruch für »meinen«? Die Amerikanerin Lisa Nathan, T9-Produktmanagerin, erklärt es: »Wenn wir die Wort-Datenbank für eine neue Sprache anlegen, sammeln wir zuerst mehrere Gigabyte an Text aus Zeitungen, Zeitschriften und aus Internet-Seiten und Chaträumen in der jeweiligen Sprache.« Die so zusammengetragenen Wortmassen werden anschließend durchgesehen - offenkundig irrsinnige Wörter aus Chats etwa fliegen raus. Je häufiger ein Wort vorkommt, umso eher erscheint es zuerst auf dem Display.
    Manche Rechtschreibfehler lassen die Programmierer absichtlich drin - schließlich ist ein SMS-Schreiber frustriert, wenn das Programm ein Wort hartnäckig verweigert, von dem er fest glaubt, dass es existieren müsse. So kommt es, dass T9 sogar ein Wort »Rhytmuß« kennt. »Andere Wörter ergänzen wir, Imperative zum Beispiel wie :gib9 oder :nimm9. Die kommen in gedruckten Texten nur selten vor, in Kurzmitteilungen dafür ziemlich oft«, sagt Lisa Nathan. Aber wie kommt es, dass die Worterkennung zwar den Nazi-Jargon von Hitler bis Euthanasie im Programm hat, Wörter, die den Sex beschreiben oder das Einnehmen von Drogen, häufig aber nicht erkennt und die üblichsten Flüche einfach fehlen? »Wir zensieren nicht«, sagt Lisa Nathan. »in unserer Datenbank stehen alle Wörter - sofern sie häufig genug vorkommen. Aber fast alle Handyhersteller lassen Schimpfwörter und Wörter mit sexueller Bedeutung ausblenden.« Der Nazi-Jargon scheint niemand zu stören. Weil Flüche, Spitznamen oder nette Abkürzungen im Programm fehlen, ist T9 neuerdings lernfähig geworden: Wer Wörter vermisst, kann sie der Worterkennung beibringen. Die neuesten Handys lernen sogar automatisch, indem sie die eingehenden SMS nach neuen Wörtern durchsuchen. Am meisten Zeit spart man durch die Funktionen »Wortkomplettierung« oder »Wortvorhersage«, die nicht nur vorschlagen, wie das angefangene Wort enden könnte, sondern auch, welches wohl als nächstes kommt. »Ich bin kein sehr pünktlicher Mensch«, gesteht Lisa Nathan, »und wenn ich das Wort :komme9 tippe, schlägt mir T9 automatisch :etwas später9 als folgende Wörter vor.« Das kann sehr praktisch sein - aber auch sehr nervig. Denn wer will schon ständig an den Namen der Exfreundin Natalie erinnert werden, wenn er nur »nat« für »natürlich« eingegeben hat?"
  18. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.00
    0.004136023 = product of:
      0.03929222 = sum of:
        0.013154183 = weight(_text_:und in 4099) [ClassicSimilarity], result of:
          0.013154183 = score(doc=4099,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 4099, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
        0.026138037 = product of:
          0.052276075 = sum of:
            0.052276075 = weight(_text_:allgemein in 4099) [ClassicSimilarity], result of:
              0.052276075 = score(doc=4099,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.40637016 = fieldWeight in 4099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  19. Byrne, C.C.; McCracken, S.A.: ¬An adaptive thesaurus employing semantic distance, relational inheritance and nominal compound interpretation for linguistic support of information retrieval (1999) 0.00
    0.0037734555 = product of:
      0.035847828 = sum of:
        0.015945276 = weight(_text_:und in 4483) [ClassicSimilarity], result of:
          0.015945276 = score(doc=4483,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 4483, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4483)
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 4483) [ClassicSimilarity], result of:
              0.0398051 = score(doc=4483,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 4483, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4483)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    15. 3.2000 10:22:37
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.00
    0.0037734555 = product of:
      0.035847828 = sum of:
        0.015945276 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.015945276 = score(doc=5429,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.0398051 = score(doc=5429,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Source
    c't. 2000, H.22, S.230-231

Years

Languages

  • d 142
  • e 40
  • ru 1
  • More… Less…

Types

  • el 20
  • p 1
  • More… Less…