Search (20 results, page 1 of 1)

  • × theme_ss:"Linguistik"
  1. Chomsky, N.: Aspects of the theory of syntax (1965) 0.03
    0.028410593 = product of:
      0.056821186 = sum of:
        0.056821186 = product of:
          0.11364237 = sum of:
            0.11364237 = weight(_text_:22 in 3829) [ClassicSimilarity], result of:
              0.11364237 = score(doc=3829,freq=2.0), product of:
                0.18357785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05242341 = queryNorm
                0.61904186 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    6. 1.1999 10:29:22
  2. Warner, A.J.: Quantitative and qualitative assessments of the impact of linguistic theory on information science (1991) 0.02
    0.024859268 = product of:
      0.049718536 = sum of:
        0.049718536 = product of:
          0.09943707 = sum of:
            0.09943707 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
              0.09943707 = score(doc=29,freq=2.0), product of:
                0.18357785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05242341 = queryNorm
                0.5416616 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    6. 1.1999 10:22:45
  3. Gardin, J.C.: Document analysis and linguistic theory (1973) 0.01
    0.014129946 = product of:
      0.028259892 = sum of:
        0.028259892 = product of:
          0.056519784 = sum of:
            0.056519784 = weight(_text_:2 in 2387) [ClassicSimilarity], result of:
              0.056519784 = score(doc=2387,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.4365662 = fieldWeight in 2387, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.125 = fieldNorm(doc=2387)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Journal of documentation. 29(1973) no.2, S.137-168
  4. Storms, G.; VanMechelen, I.; DeBoeck, P.: Structural-analysis of the intension and extension of semantic concepts (1994) 0.01
    0.012429634 = product of:
      0.024859268 = sum of:
        0.024859268 = product of:
          0.049718536 = sum of:
            0.049718536 = weight(_text_:22 in 2574) [ClassicSimilarity], result of:
              0.049718536 = score(doc=2574,freq=2.0), product of:
                0.18357785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05242341 = queryNorm
                0.2708308 = fieldWeight in 2574, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 19:17:40
  5. Chafe, W.L.: Meaning and the structure of language (1980) 0.01
    0.012429634 = product of:
      0.024859268 = sum of:
        0.024859268 = product of:
          0.049718536 = sum of:
            0.049718536 = weight(_text_:22 in 220) [ClassicSimilarity], result of:
              0.049718536 = score(doc=220,freq=2.0), product of:
                0.18357785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05242341 = queryNorm
                0.2708308 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=220)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2007 12:21:29
  6. Kuhlen, R.: Linguistische Grundlagen (1980) 0.01
    0.012363703 = product of:
      0.024727406 = sum of:
        0.024727406 = product of:
          0.049454812 = sum of:
            0.049454812 = weight(_text_:2 in 3829) [ClassicSimilarity], result of:
              0.049454812 = score(doc=3829,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.38199544 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3829)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Grundlagen der praktischen Information und Dokumentation: eine Einführung. 2. Aufl
  7. O'Donnell, R.; Smeaton, A.F.: ¬A linguistic approach to information retrieval (1996) 0.01
    0.010653973 = product of:
      0.021307945 = sum of:
        0.021307945 = product of:
          0.04261589 = sum of:
            0.04261589 = weight(_text_:22 in 2575) [ClassicSimilarity], result of:
              0.04261589 = score(doc=2575,freq=2.0), product of:
                0.18357785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05242341 = queryNorm
                0.23214069 = fieldWeight in 2575, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  8. Hörmann, H.: Sprache (1977) 0.01
    0.010597459 = product of:
      0.021194918 = sum of:
        0.021194918 = product of:
          0.042389836 = sum of:
            0.042389836 = weight(_text_:2 in 1398) [ClassicSimilarity], result of:
              0.042389836 = score(doc=1398,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.32742465 = fieldWeight in 1398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1398)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Issue
    2., überarb. Aufl.
  9. Lerat, P.: ¬Les langues spécialisées : linguistique nouvelle (1995) 0.01
    0.010597459 = product of:
      0.021194918 = sum of:
        0.021194918 = product of:
          0.042389836 = sum of:
            0.042389836 = weight(_text_:2 in 2630) [ClassicSimilarity], result of:
              0.042389836 = score(doc=2630,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.32742465 = fieldWeight in 2630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2630)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Knowledge organization 23(1996) no.2, S.115-116 (H. Leclerq)
  10. Lobanov, A.S.: Languages and metalanguages (1993) 0.01
    0.010597459 = product of:
      0.021194918 = sum of:
        0.021194918 = product of:
          0.042389836 = sum of:
            0.042389836 = weight(_text_:2 in 7269) [ClassicSimilarity], result of:
              0.042389836 = score(doc=7269,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.32742465 = fieldWeight in 7269, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7269)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    International forum on information and documentation. 18(1993) no.2, S.3-8
  11. Engelkamp, J.: Psycholinguistik (1983) 0.01
    0.010597459 = product of:
      0.021194918 = sum of:
        0.021194918 = product of:
          0.042389836 = sum of:
            0.042389836 = weight(_text_:2 in 494) [ClassicSimilarity], result of:
              0.042389836 = score(doc=494,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.32742465 = fieldWeight in 494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.09375 = fieldNorm(doc=494)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Issue
    2. Aufl.
  12. Rasmussen, L.: Selected linguistic problems in indexing within the Canadian context (1992) 0.01
    0.008831216 = product of:
      0.017662432 = sum of:
        0.017662432 = product of:
          0.035324864 = sum of:
            0.035324864 = weight(_text_:2 in 1609) [ClassicSimilarity], result of:
              0.035324864 = score(doc=1609,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.27285388 = fieldWeight in 1609, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1609)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Indexer. 18(1992) no.2, S.87-91
  13. Fillmore, C.J.: ¬The case for case (1968) 0.01
    0.008831216 = product of:
      0.017662432 = sum of:
        0.017662432 = product of:
          0.035324864 = sum of:
            0.035324864 = weight(_text_:2 in 35) [ClassicSimilarity], result of:
              0.035324864 = score(doc=35,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.27285388 = fieldWeight in 35, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.078125 = fieldNorm(doc=35)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Deutsche Übersetzung ('Plädoyer für Kasus') in: Kasustheorie. Hrsg. von W. Abraham. Frankfurt: Athenäum 1971 (Schwerpunkte Linguistik und Kommunikationswissenschaft; Bd.2) S.1-118.
  14. Bies, W.: Linguistische Pragmatik : eine vernachlässigte Referenzdisziplin der Inhaltserschließung (1992) 0.01
    0.008742458 = product of:
      0.017484916 = sum of:
        0.017484916 = product of:
          0.034969833 = sum of:
            0.034969833 = weight(_text_:2 in 22) [ClassicSimilarity], result of:
              0.034969833 = score(doc=22,freq=4.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.27011156 = fieldWeight in 22, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=22)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.2
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  15. Dahl, V.: What the study of language can contribute to AI (1993) 0.01
    0.007064973 = product of:
      0.014129946 = sum of:
        0.014129946 = product of:
          0.028259892 = sum of:
            0.028259892 = weight(_text_:2 in 5098) [ClassicSimilarity], result of:
              0.028259892 = score(doc=5098,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.2182831 = fieldWeight in 5098, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5098)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    AI communications. 6(1993) no.2, S.92-106
  16. Molina, M.P.: Interdisciplinary approaches to the concept and practice of written documentary content analysis (WTDCA) (1994) 0.01
    0.0061818515 = product of:
      0.012363703 = sum of:
        0.012363703 = product of:
          0.024727406 = sum of:
            0.024727406 = weight(_text_:2 in 6147) [ClassicSimilarity], result of:
              0.024727406 = score(doc=6147,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.19099772 = fieldWeight in 6147, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6147)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Journal of documentation. 50(1994) no.2, S.111-133
  17. Amac, T.: Linguistic context analysis : a new approach to communication evaluation (1997) 0.01
    0.0052987295 = product of:
      0.010597459 = sum of:
        0.010597459 = product of:
          0.021194918 = sum of:
            0.021194918 = weight(_text_:2 in 2576) [ClassicSimilarity], result of:
              0.021194918 = score(doc=2576,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.16371232 = fieldWeight in 2576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Corporate communications: an international journal. 2(1997) no.4, S.155-160
  18. Linke, A.; Nussbaumer, M.; Portmann, P.R.; Willi, U.: Studienbuch Linguistik (1994) 0.00
    0.004371229 = product of:
      0.008742458 = sum of:
        0.008742458 = product of:
          0.017484916 = sum of:
            0.017484916 = weight(_text_:2 in 1571) [ClassicSimilarity], result of:
              0.017484916 = score(doc=1571,freq=4.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.13505578 = fieldWeight in 1571, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1571)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    2. 3.2008 13:04:35
    Issue
    2. Aufl., erg. um ein Kapitel "Phonetik und Phonologie
  19. Kutschera, F. von: Sprachphilosophie (1971) 0.00
    0.0031223064 = product of:
      0.006244613 = sum of:
        0.006244613 = product of:
          0.012489226 = sum of:
            0.012489226 = weight(_text_:2 in 4000) [ClassicSimilarity], result of:
              0.012489226 = score(doc=4000,freq=4.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.09646841 = fieldWeight in 4000, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4000)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Schon Gottlob Frege sagt im Vorwort zu seiner "Begriffsschrift": "Wenn es eine Aufgabe der Philosophie ist, die Herrschaft des Wortes über den menschlichen Geist zu brechen, indem sie die Täuschungen aufdeckt, die durch den Sprachgebrauch über die Beziehungen der Begriffe oft fast unvermeidlich entstehen, indem sie den Gedanken von demjenigen befreit, womit ihn allein die Beschaffenheit des sprachlichen Ausdrucksmittels behaftet, so wird meine Begriffsschrift, für diese Zwecke weiter ausgebildet, den Philosophen ein brauchbares Werkzeug werden können." Aus dem "Wenn"-Satz Freges wird dann eine kategorische Behauptung und schon für Russell besteht die wichtigste Aufgabe der Philosophie "in criticizing and clarifying notions which are apt to be regarded as fundamental and accepted uncritically. As instances I might mention: mind, matter, consciousness, knowledge, experience, causality, will, time." Und Carnap schreibt im Vorwort zur 2. Auflage seines Buches "Der logische Aufbau der Welt": "Die neuen Bestimmungen [der Begriffe] sollen den alten in Klarheit und Exaktheit überlegen sein und sich vor allem besser in ein systematisches Begriffsgebäude einfügen. Eine solche Begriffserklärung, heute oft "Explikation" genannt, scheint mir immer noch eine der wichtigsten Aufgaben der Philosophie zu sein." Für Wittgenstein ist schon im "Traktat" alle Philosophie Sprachkritik und in den "Philosophischen Un-tersuchungen" ist Philosophie nichts anderes als ein ständiger Kampf gegen die "Verhexung unsres Verstandes durch die Mittel unserer Sprache"." Für viele Anhänger der Ordinary-Language-Philosophie endlich bedeutet die Hinwendung der Philosophie zur Sprache, der "linguistic turn", die große Revolution der modernen Philosophie. So sagt Austin: ". . . it cannot be doubted that they [diese Methoden der Sprachkritik] are producing a revolution in philosophy. If anyone wishes to call it the greatest and most salutary in its history, this is not, if you come to think of it, a large claim."
    Angesichts der Vielzahl von philosophischen Bestrebungen und Richtungen, die sich unter den Titel einer Sprachphilosophie sammeln, kann es nicht Wunder nehmen, daß dieser Titel keinen präzisen und wohlbestimmten Inhalt hat. Daher wollen wir kurz umreißen, mit welchen Themen sich diese Arbeit beschäftigen soll, und welche Absichten uns dabei leiten. Wir wollen im folgenden, zunächst ganz generell gesagt, Funktion und Leistung der Sprache untersuchen. Aus der Fülle der Fragen, die sich in diesem Zusammenhang stellen lassen, wollen wir drei Problemkreise herausgreifen, die uns von besonderer und grundsätzlicher Bedeutung zu sein scheinen: Das Problem der grammatischen Gliederung und Synthese sprachlicher Ausdrücke, das Problem ihrer Bedeutung und das Problem des Anteils der Sprache an der Erfahrung. Nach einigen Vorbemerkungen beginnen wir im 2. Kapitel mit der Erörterung des grammatischen Problems, wie die sprachliche Zusammenfügung bedeutungsvoller Ausdrücke zu neuen Sinneinheiten funktioniert. Dabei wird noch nicht untersucht, worin die Bedeutung der Elemente der grammatischen Fügungen besteht und wie sie bestimmt wird, sondern es wird nur gefragt, wie sich die Bedeutung der Ausdrucksgruppen aus der Bedeutung der einzelnen Ausdrücke bestimmt. Die Frage, worin die Bedeutung sprachlicher Ausdrücke besteht, wie sie festgelegt wird und wie sprachliche Mitteilung funktioniert, wird dann im 3. Kapitel behandelt. Im 4. Kapitel endlich wird das Verhältnis von Sprache und Erfahrung diskutiert, die Frage, inwieweit sich in den Formen einer Sprache gewisse Interpretationsschemata für die Erfahrung ausdrücken, inwieweit die Formen der Sprache die Art und Weise prägen, wie die Wirklichkeit erfahren wird.
  20. Fischer, W.L.: Äquivalenz- und Toleranzstrukturen in der Linguistik : zur Theorie der Synonyma (1973) 0.00
    0.0030909257 = product of:
      0.0061818515 = sum of:
        0.0061818515 = product of:
          0.012363703 = sum of:
            0.012363703 = weight(_text_:2 in 66) [ClassicSimilarity], result of:
              0.012363703 = score(doc=66,freq=2.0), product of:
                0.1294644 = queryWeight, product of:
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.05242341 = queryNorm
                0.09549886 = fieldWeight in 66, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4695914 = idf(docFreq=10170, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=66)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In verschiedenen Bereichen der Linguistik, im Strukturalismus, in der mathematischen Text- und Literaturtheorie spielen Äquivalenzrelationen als mathematische Modelle für empirische Relationen eine zentrale Rolle. Ohne im Einzelfall um einen detaillierten Nachweis bemüht zu sein, geht man im allgemeinen davon aus, daß die Gesetze, die eine Äquivalenzrelation in abstracto charakterisieren, in dem von der Äquivalenzstruktur modellierten realen Phänomen erfüllt sind. Bei genauer Analyse der jeweiligen Situation zeigt es sich jedoch häufig, daß die betreffenden empirischen Relationen nicht allen charakteristischen Eigenschaften der Äquivalenzrelationen genügen bzw. daß es große Schwierigkeiten bereitet, die Gültigkeit z.B. der Eigenschaft der Transitivität nachzuweisen. In all diesen Fällen schlagen wir daher vor, der abstrakten Modellbildung einen schwächeren Begriff, den der "Toleranzrelation" (bzw. des "Toleranzraumes") zugrundezulegen. In den Teilen 1. und 2. stellen wir die formalen Theorien der Äquivalenzrelationen und der Toleranzrelationen einander gegenüber und zeigen, wie sich beide in die Methodologie der Wissenschaften einordnen. In Teil 3. zeigen wir am Problembereich des Synonymenbegriffs inwiefern die schwächere Struktur des Toleranzraumes in vielen Fällen die konkrete Situation angemessener darstellt als ein Äquivalenzgebilde. Wir werden in diesem Zusammenhang die Elemente der von einer Toleranzrelation induzierten Topologie entwickeln und die Grundbeziehungen einer entsprechenden Topologisierung des Wortraumes einer gegebenen Sprache vorstellen. Die letztgenannte Modellstruktur, die zu einer Topologisierung von Worträumen Anlaß gibt, läßt sich auch ausgehend von Modellvorstellungen der inhaltbezogenen Grammatik motivieren. Von zentraler Bedeutung ist dort der Begriff des Wortfeldes. Wir werden mit diesem Begriff bewußt keine physikalischen Vorstellungen verbinden. Zu "Kraft" und "Kraftlinien" im physikalischen Modell lassen sich im (indogermanischen) Sprachbereich im Sinne der inhaltbezogenen Grammatik nur sehr dürftige Entsprechungen finden, die wenigstens in einigen ihrer Eigenschaften den Bezug auf die physikalischen Begriffe "Kraft" und "Kraftlinie" rechtfertigten. Physikalische Analogien scheinen im Zusammenhang mit dem Wortfeld` nur den metaphorischen Charakter eines hermeneutischen Gefasels zu haben.

Years

Languages

Types

  • a 12
  • m 8

Classifications