Search (43 results, page 1 of 3)

  • × theme_ss:"Linguistik"
  1. Chomsky, N.: Aspekte der Syntax-Theorie (1972) 0.07
    0.07086643 = product of:
      0.14173286 = sum of:
        0.03737085 = weight(_text_:von in 315) [ClassicSimilarity], result of:
          0.03737085 = score(doc=315,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=315)
        0.10436201 = product of:
          0.15654302 = sum of:
            0.0069802674 = weight(_text_:a in 315) [ClassicSimilarity], result of:
              0.0069802674 = score(doc=315,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12611452 = fieldWeight in 315, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=315)
            0.14956275 = weight(_text_:z in 315) [ClassicSimilarity], result of:
              0.14956275 = score(doc=315,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5837686 = fieldWeight in 315, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=315)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Classification
    ST 510 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Einzelne Programme (A-Z)
    Issue
    Aus dem Amerikan. übers. und hrsg. von einem Kollektiv unter der Leitung von Ewald Lang.
    RVK
    ST 510 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Einzelne Programme (A-Z)
  2. Glasersfeld, E. von: ¬Die semantische Analyse von Verben auf der Grundlage begrifflicher Situationen (1987) 0.04
    0.038925447 = product of:
      0.07785089 = sum of:
        0.07550052 = weight(_text_:von in 37) [ClassicSimilarity], result of:
          0.07550052 = score(doc=37,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.58953893 = fieldWeight in 37, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=37)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 37) [ClassicSimilarity], result of:
              0.007051134 = score(doc=37,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 37, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=37)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Source
    Glasersfeld, E. von: Wissen, Sprache und Wirklichkeit: Arbeiten zum radikalen Konstruktivismus. Autorisierte deutsche Fassung von W.K. Köck
    Type
    a
  3. Fillmore, C.J.: ¬The case for case (1968) 0.02
    0.020050319 = product of:
      0.040100638 = sum of:
        0.03775026 = weight(_text_:von in 35) [ClassicSimilarity], result of:
          0.03775026 = score(doc=35,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=35)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 35) [ClassicSimilarity], result of:
              0.007051134 = score(doc=35,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 35, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=35)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Footnote
    Deutsche Übersetzung ('Plädoyer für Kasus') in: Kasustheorie. Hrsg. von W. Abraham. Frankfurt: Athenäum 1971 (Schwerpunkte Linguistik und Kommunikationswissenschaft; Bd.2) S.1-118.
    Type
    a
  4. Bies, W.: Linguistische Pragmatik : eine vernachlässigte Referenzdisziplin der Inhaltserschließung (1992) 0.02
    0.019508056 = product of:
      0.039016113 = sum of:
        0.03737085 = weight(_text_:von in 22) [ClassicSimilarity], result of:
          0.03737085 = score(doc=22,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 22, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=22)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 22) [ClassicSimilarity], result of:
              0.004935794 = score(doc=22,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 22, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=22)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Pragmalinguistik, eine bislang vernachlässigte Referenzdisziplin der bibliothekarischen Inhaltserschließung, stellt ein reiches Reservoir an Erkenntnissen, Konzepten und Methoden bereit, um die 'pragmatische Wende', vor allem die benutzerorientierung, in der Inhaltserschließung zu fördern, um den Prozeß der Inhaltsanalyse aufzuwerten, um eine Neubewertung von Konzepten wie Aspekt und Facette zu ermöglichen und um die semantischen und lexikalischen Gesetzmäßigkeiten des Schlagwortkatalogs neu zu bestimmen und, neu definiert, in eine (noch zu erbringende) Theorie des Schlagwortkatalogs einzubringen. Überdies kann die Pragmalinguistik wertvolle Hilfestellung bei der Evaluierung und Optimierung der Inhaltserschließung für den OPAC leisten
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
    Type
    a
  5. Kutschera, F. von: Sprachphilosophie (1971) 0.02
    0.019384 = product of:
      0.038768 = sum of:
        0.03775026 = weight(_text_:von in 4000) [ClassicSimilarity], result of:
          0.03775026 = score(doc=4000,freq=32.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 4000, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4000)
        0.0010177437 = product of:
          0.003053231 = sum of:
            0.003053231 = weight(_text_:a in 4000) [ClassicSimilarity], result of:
              0.003053231 = score(doc=4000,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.05516361 = fieldWeight in 4000, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4000)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    Die Sprache ist in unserem Jahrhundert zu einem der aktuellsten Themen der Philosophie geworden. Der Anstoß zur Beschäftigung mit der Sprache hat sich von den verschiedensten philosophischen Fragestellungen her ergeben: von der Erkenntnistheorie durch eine Wendung der Vernunftkritik in eine Sprachkritik, von der Logik aufgrund ihrer Beschäftigung mit Kunstsprachen und mit der logischen Analyse der natürlichen Sprachen, von der Anthropologie durch die Hervorhebung der Sprache als wesensbestimmender Leistung des Menschen und durch die Entdeckung von Korrelationen zwischen Sprachform und Weltbild, von der Ethik durch ihre Beschäftigung mit den sprachlichen Formen ethischer Aussagen und deren Abgrenzung gegenüber deskriptiven Sätzen. Ganz allgemein läßt sich diese philosophische Hinwendung zur Sprache auch an dem Wandel in der Formulierung philosophischer Probleme ablesen. Wo man früher z.B. nach der "Natur der Kausalität" fragte, oder nach dem "Inhalt des Begriffes der Kausalität", empfindet man es heute als adäquater, das Problem als eine Frage nach dem Wortgebrauch zu formulieren und zu fragen: "Was sagt man, wenn man sagt, daß ein Ereignis A ein Ereignis B bewirkt? "' Die philosophische Aufmerksamkeit hat sich im Verlauf dieser Entwicklung teilweise so ausschließlich auf die Sprache konzentriert, daß man Philosophie überhaupt mit Sprachkritik identifiziert hat. Das gilt insbesondere für die beiden Hauptströmungen der analytischen Philosophie, für die von Bertrand Russell ausgehende und sich über Rudolf Carnap zu Nelson Goodman und Willard van Orman Quine fortsetzende Bestrebung einer logischen Analyse der Wissenschaftssprache, speziell der philosophischen Sprache, in der man versucht, den Sinn der Terme und Sätze dieser Sprache mit den Hilfsmitteln der modernen Logik zu klären und zu präzisieren, und, mehr noch, für die von George Edward Moore ausgehende, dann durch Ludwig Wittgenstein geprägte und in der Ordinary-LanguagePhilosophie der Oxforder Schule (Gilbert Ryle, John Langshaw Austin) fortentwickelte andere Hauptrichtung der analytischen Philosophie, in der man versucht, die philosophische Sprache durch die Analyse des umgangssprachlichen Gebrauchs ihrer Terme zu klären.
    Schon Gottlob Frege sagt im Vorwort zu seiner "Begriffsschrift": "Wenn es eine Aufgabe der Philosophie ist, die Herrschaft des Wortes über den menschlichen Geist zu brechen, indem sie die Täuschungen aufdeckt, die durch den Sprachgebrauch über die Beziehungen der Begriffe oft fast unvermeidlich entstehen, indem sie den Gedanken von demjenigen befreit, womit ihn allein die Beschaffenheit des sprachlichen Ausdrucksmittels behaftet, so wird meine Begriffsschrift, für diese Zwecke weiter ausgebildet, den Philosophen ein brauchbares Werkzeug werden können." Aus dem "Wenn"-Satz Freges wird dann eine kategorische Behauptung und schon für Russell besteht die wichtigste Aufgabe der Philosophie "in criticizing and clarifying notions which are apt to be regarded as fundamental and accepted uncritically. As instances I might mention: mind, matter, consciousness, knowledge, experience, causality, will, time." Und Carnap schreibt im Vorwort zur 2. Auflage seines Buches "Der logische Aufbau der Welt": "Die neuen Bestimmungen [der Begriffe] sollen den alten in Klarheit und Exaktheit überlegen sein und sich vor allem besser in ein systematisches Begriffsgebäude einfügen. Eine solche Begriffserklärung, heute oft "Explikation" genannt, scheint mir immer noch eine der wichtigsten Aufgaben der Philosophie zu sein." Für Wittgenstein ist schon im "Traktat" alle Philosophie Sprachkritik und in den "Philosophischen Un-tersuchungen" ist Philosophie nichts anderes als ein ständiger Kampf gegen die "Verhexung unsres Verstandes durch die Mittel unserer Sprache"." Für viele Anhänger der Ordinary-Language-Philosophie endlich bedeutet die Hinwendung der Philosophie zur Sprache, der "linguistic turn", die große Revolution der modernen Philosophie. So sagt Austin: ". . . it cannot be doubted that they [diese Methoden der Sprachkritik] are producing a revolution in philosophy. If anyone wishes to call it the greatest and most salutary in its history, this is not, if you come to think of it, a large claim."
    Angesichts der Vielzahl von philosophischen Bestrebungen und Richtungen, die sich unter den Titel einer Sprachphilosophie sammeln, kann es nicht Wunder nehmen, daß dieser Titel keinen präzisen und wohlbestimmten Inhalt hat. Daher wollen wir kurz umreißen, mit welchen Themen sich diese Arbeit beschäftigen soll, und welche Absichten uns dabei leiten. Wir wollen im folgenden, zunächst ganz generell gesagt, Funktion und Leistung der Sprache untersuchen. Aus der Fülle der Fragen, die sich in diesem Zusammenhang stellen lassen, wollen wir drei Problemkreise herausgreifen, die uns von besonderer und grundsätzlicher Bedeutung zu sein scheinen: Das Problem der grammatischen Gliederung und Synthese sprachlicher Ausdrücke, das Problem ihrer Bedeutung und das Problem des Anteils der Sprache an der Erfahrung. Nach einigen Vorbemerkungen beginnen wir im 2. Kapitel mit der Erörterung des grammatischen Problems, wie die sprachliche Zusammenfügung bedeutungsvoller Ausdrücke zu neuen Sinneinheiten funktioniert. Dabei wird noch nicht untersucht, worin die Bedeutung der Elemente der grammatischen Fügungen besteht und wie sie bestimmt wird, sondern es wird nur gefragt, wie sich die Bedeutung der Ausdrucksgruppen aus der Bedeutung der einzelnen Ausdrücke bestimmt. Die Frage, worin die Bedeutung sprachlicher Ausdrücke besteht, wie sie festgelegt wird und wie sprachliche Mitteilung funktioniert, wird dann im 3. Kapitel behandelt. Im 4. Kapitel endlich wird das Verhältnis von Sprache und Erfahrung diskutiert, die Frage, inwieweit sich in den Formen einer Sprache gewisse Interpretationsschemata für die Erfahrung ausdrücken, inwieweit die Formen der Sprache die Art und Weise prägen, wie die Wirklichkeit erfahren wird.
    Diese drei Problemkreise sind auch Grundprobleme der Sprachwissenschaften, speziell der allgemeinen Sprachwissenschaft als linguistischer Grundlagendisziplin, und so ergeben sich hier vielfach Überschneidungen der sprachphilosophischen und der sprachwissenschaftlichen Forschung. Beide lassen sich nicht scharf voneinander abgrenzen. Daher ergibt sich für die Sprachphilosophie die Forderung, sich über die für ihre Fragen relevanten Ergebnisse der Linguistik zu informieren und sie zu berücksichtigen, und es ergibt sich die Chance, die sprachphilosophischen Thesen mit linguistischen Argumenten zu stützen. Die Philosophie bewegt sich hier also nicht in einem erfahrungsunabhängigen Bereich. Für die Frage nach Funktion und Leistung der Sprache interessieren wir uns hier vor allem aus folgenden Gründen: Für alle Wissenschaften stellt die Sprache das elementarste und wichtigste Hilfsmittel dar, das wir ständig verwenden. Wenn wir Behauptungen aufstellen (beschreiben, klassifizieren, Hypothesen oder Theorien formulieren), argumentieren, Festsetzungen treffen (definieren, Meßvorschriften angeben, usw.), so gebrauchen wir die Sprache. Weil die Sprache ein so wichtiges Instrument der Wissenschaften ist, ist eine gründliche Kenntnis dieses Instrumentes für die einzelwissenschaftliche Arbeit selbst sehr nützlich. Die natürlichen Sprachen, die wir auch in den Wissenschaften vorwiegend verwenden, sind ja nicht primär für wissenschaftliche Zwecke gemacht und bedürfen zu ihrem wissenschaftlichen Gebrauch vielfacher Ergänzungen und Präzisierungen. Der Wissenschaftler ist also nicht nur Konsument der Sprache, sondern in gewissem Maße auch Konstrukteur und kann sich zumindest in dieser Rolle nicht naiv den Sprachgewohnheiten anvertrauen, sondern benötigt Einsichten in die Natur sprachlicher Ausdrucksmittel. Funktion und Leistung der Sprache sind in diesem Sinn Thema der wissenschaftlichen Propädeutik. Für die Erkenntnistheorie ist besonders die Frage nach der Leistung der Sprache für die Formung und Organisation der Erfahrung von eminentem Interesse. Besteht Sprechen nur im Ausdrücken sprachunabhängiger Denk- oder Wahrnehmungsinhalte, an denen sich durch ihren Ausdruck nichts ändert, oder sind diese Inhalte immer schon sprachlich bestimmt, so daß die Formen unserer Sprache Formen unserer Erfahrung sind? Aber auch das Bedeutungsproblem, das, wie wir sehen werden, mit dieser Frage eng zusammenhängt, ist von erkenntnistheoretischer Relevanz. Diese beiden Fragestellungen aus Propädeutik und Erkenntnistheorie sind für die folgenden Erörterungen von Funktion und Leistung der Sprache leitend und bestimmen die philosophische Ausrichtung dieser Untersuchungen."
  6. Warner, A.J.: Quantitative and qualitative assessments of the impact of linguistic theory on information science (1991) 0.02
    0.016820375 = product of:
      0.0672815 = sum of:
        0.0672815 = product of:
          0.10092224 = sum of:
            0.009871588 = weight(_text_:a in 29) [ClassicSimilarity], result of:
              0.009871588 = score(doc=29,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.17835285 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
            0.091050655 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
              0.091050655 = score(doc=29,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5416616 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    6. 1.1999 10:22:45
    Type
    a
  7. Krömmelbein, U.: Linguistische und fachwissenschaftliche Gesichtspunkte der Schlagwortsyntax : Eine vergleichende Untersuchung der Regeln für die Schlagwortvergabe der Deutschen Bibliothek, der RSWK und der Indexierungsverfahren Voll-PRECIS und Kurz-PRECIS (1984) 0.02
    0.016721193 = product of:
      0.033442385 = sum of:
        0.03203216 = weight(_text_:von in 984) [ClassicSimilarity], result of:
          0.03203216 = score(doc=984,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 984, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=984)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 984) [ClassicSimilarity], result of:
              0.004230681 = score(doc=984,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 984, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=984)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die deutsche Bibliothek in Frankfurt bietet seit einigen Jahren zentrale Dienste im Bereich der verbalen Sacherschließung an, Um deren Akzeptanz zu verbessern, will die Deutsche Bibliothek ab 1986 von der augenblicklichen gleichordnenden Indexierung zu einem syntaktischen Verfahren übergehen. Als Alternativen standen die RSWK und eine verkürzte Version des britischen Indexierungsverfahrens PRECIS zur Diskussion. Die Anforderungen einer Fachwissenschaft an die Schlagwort-Syntax einer adäquaten Dokumentationssprache werden exemplarisch entwickelt, die vier Alternativen - augenblickliche verbale Sacherschließunf der DB, RSWK, PRECIS (britische Version) und Kurz-PRECIS (DB-Version) - an ihnen gemessen. Die Kriterien basiern auf Grammatiktheorien der modernen Linguistik und gehen von einer Analogie zwischen Dokumentationssprachen und natürlicher Sprache aus.
    Type
    a
  8. Vater, H.: Einführung in die Textlinguistik : Struktur und Verstehen von Texten (2001) 0.02
    0.015100104 = product of:
      0.060400415 = sum of:
        0.060400415 = weight(_text_:von in 6747) [ClassicSimilarity], result of:
          0.060400415 = score(doc=6747,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.47163114 = fieldWeight in 6747, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=6747)
      0.25 = coord(1/4)
    
    Abstract
    Die Einführung gibt einen Überblick über gängige Ansätze in der Textlinguistik. Behandelt werden u.a. Definition von Text und Abgrenzung von Nicht-Text, Strukturierung von Texten, Zusammenhang zwischen Textthema und Textstruktur, thematische Progression in texten, Probleme der Textsorten-Klassifikation. Das Buch enthält Textbeispiele, an denen die einzelnen Phänomen erläutert und diskutiert werden sowie Aufgaben zu den einzelnen Themen
  9. Texte verstehen : Konzepte, Methoden, Werkzeuge (1994) 0.01
    0.014177717 = product of:
      0.028355435 = sum of:
        0.026693465 = weight(_text_:von in 1661) [ClassicSimilarity], result of:
          0.026693465 = score(doc=1661,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2084335 = fieldWeight in 1661, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.0016619684 = product of:
          0.0049859053 = sum of:
            0.0049859053 = weight(_text_:a in 1661) [ClassicSimilarity], result of:
              0.0049859053 = score(doc=1661,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.090081796 = fieldWeight in 1661, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1661)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Band faßt die Resultate des Projekts ATLAS zusammen und stellt diese mit weiterführenden Betrachtungen der Öffentlichkeit vor. Interdisziplinär werden verschiedene Aspekte von 'Text' durchleuchtet: Semiotik, Linguistik, Psychologie, Germanistik, Informatik, Verlagswesen - sie stellen die Beiträge dieses Buches. Bei der Komplexität des Themas 'Text' ist kein einheitliches disziplinunabhängiges Modell zur Beschreibung des Phänomens zu erwarten. Eher wird hier die vielfältige Facettierung sichtbar, mit der man sich auch dem Thema nähern kann. Vorgestellt werden auch die Werkzeuge, die prototypisch im Projekt ATLAS entwickelt wurden sowie die konkrete Anwendung dieser Methoden. Zum Abschluß des Buches wird die zukünftige Rolle von Text unter dem Einfluß der 'neuen Medien' problematisiert
    Editor
    Boehm, A., A. Mengel u. T. Muhr
  10. Miller, G.A.: Wörter : Streifzüge durch die Psycholinguistik (1993) 0.01
    0.01354715 = product of:
      0.0270943 = sum of:
        0.02615415 = weight(_text_:von in 1458) [ClassicSimilarity], result of:
          0.02615415 = score(doc=1458,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20422229 = fieldWeight in 1458, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=1458)
        9.401512E-4 = product of:
          0.0028204536 = sum of:
            0.0028204536 = weight(_text_:a in 1458) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=1458,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 1458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1458)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Wörter sind der sprachliche Ausdruck unseres Denkens, von uns selbst geschaffen, und doch etwas, das wir selten einer näheren Betrachtung unterziehen. Dabei kann uns gerade diese Betrachtung einiges darüber sagen, was in unseren Gehirnen vor sich geht. Die Sprachforschung hat in den letzten Jahrzehnten durch die Ansätze der Kognitionspsychologie neuen Schwung bekommen - und Georg A. Miller hat als einer der Begründer der modernen Psycholinguistik einen nicht unwesentlichen Anteil daran gehabt. In diesem Buch erzühlt er, oft geürzt mit seinem ganz besonderen Humor, was die Linguistik im Reich der Wörter so alles entdeckt hat. Miller führt dem Leser die verschiedenen Seiten von Wörtern vor Augen; jedes einzelne davon ist das Zusammenspiel einer Äußerung - in der phonetischen Aussprache - , einer Bedeutung - in der Semantik - und einer Rolle im Satz - in der Syntax. Diese drei Seiten sieht Miller als Einheit, wobei er dem Leser die Theorien und Methoden, mit denen die Forschung den Wörtern zu Leibe rückt, anschaulich vorstellt
    Issue
    Hrsg. u. übers. aus dem Amerikanischen von J. Grabowski u. C. Fellbaum.
  11. Köper, B.: Vergleich von ausgewählten Thesaurus-Begriffsfeldern hinsichtlich ihrer linguistischen Relation (1990) 0.01
    0.0132125905 = product of:
      0.052850362 = sum of:
        0.052850362 = weight(_text_:von in 39) [ClassicSimilarity], result of:
          0.052850362 = score(doc=39,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.41267726 = fieldWeight in 39, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
      0.25 = coord(1/4)
    
  12. Fischer, W.L.: Äquivalenz- und Toleranzstrukturen in der Linguistik : zur Theorie der Synonyma (1973) 0.01
    0.009909443 = product of:
      0.03963777 = sum of:
        0.03963777 = weight(_text_:von in 66) [ClassicSimilarity], result of:
          0.03963777 = score(doc=66,freq=18.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30950794 = fieldWeight in 66, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.02734375 = fieldNorm(doc=66)
      0.25 = coord(1/4)
    
    Abstract
    In verschiedenen Bereichen der Linguistik, im Strukturalismus, in der mathematischen Text- und Literaturtheorie spielen Äquivalenzrelationen als mathematische Modelle für empirische Relationen eine zentrale Rolle. Ohne im Einzelfall um einen detaillierten Nachweis bemüht zu sein, geht man im allgemeinen davon aus, daß die Gesetze, die eine Äquivalenzrelation in abstracto charakterisieren, in dem von der Äquivalenzstruktur modellierten realen Phänomen erfüllt sind. Bei genauer Analyse der jeweiligen Situation zeigt es sich jedoch häufig, daß die betreffenden empirischen Relationen nicht allen charakteristischen Eigenschaften der Äquivalenzrelationen genügen bzw. daß es große Schwierigkeiten bereitet, die Gültigkeit z.B. der Eigenschaft der Transitivität nachzuweisen. In all diesen Fällen schlagen wir daher vor, der abstrakten Modellbildung einen schwächeren Begriff, den der "Toleranzrelation" (bzw. des "Toleranzraumes") zugrundezulegen. In den Teilen 1. und 2. stellen wir die formalen Theorien der Äquivalenzrelationen und der Toleranzrelationen einander gegenüber und zeigen, wie sich beide in die Methodologie der Wissenschaften einordnen. In Teil 3. zeigen wir am Problembereich des Synonymenbegriffs inwiefern die schwächere Struktur des Toleranzraumes in vielen Fällen die konkrete Situation angemessener darstellt als ein Äquivalenzgebilde. Wir werden in diesem Zusammenhang die Elemente der von einer Toleranzrelation induzierten Topologie entwickeln und die Grundbeziehungen einer entsprechenden Topologisierung des Wortraumes einer gegebenen Sprache vorstellen. Die letztgenannte Modellstruktur, die zu einer Topologisierung von Worträumen Anlaß gibt, läßt sich auch ausgehend von Modellvorstellungen der inhaltbezogenen Grammatik motivieren. Von zentraler Bedeutung ist dort der Begriff des Wortfeldes. Wir werden mit diesem Begriff bewußt keine physikalischen Vorstellungen verbinden. Zu "Kraft" und "Kraftlinien" im physikalischen Modell lassen sich im (indogermanischen) Sprachbereich im Sinne der inhaltbezogenen Grammatik nur sehr dürftige Entsprechungen finden, die wenigstens in einigen ihrer Eigenschaften den Bezug auf die physikalischen Begriffe "Kraft" und "Kraftlinie" rechtfertigten. Physikalische Analogien scheinen im Zusammenhang mit dem Wortfeld` nur den metaphorischen Charakter eines hermeneutischen Gefasels zu haben.
    Wir beschränken uns daher auf die Darstellung des sprachlichen Feldbegriffes durch ein mathematisches Modell ... bzw.: wir definieren das sprachliche Feld über ein mathematisches Modell. Die Feldeigenschaften in einem System sprachlicher Entitäten sind zunächst solche des gegenseitigen Benachbartseins. Wir können von syntaktischen und/oder semantischen Umgebungen sprechen, in denen jeweils alle zu einem Wort (einer sprachlichen Einheit) synonymen oder sinnverwandten oder strukturverwandten Worte (Einheiten) liegen. Die Eigenschaften von Wortfeldern sind also in dieser Sicht vornehmlich topologischer Natur. Dabei bleibt es gleichgültig, welchem Autor man folgt, wenn man den Feldbegriff in der Sprache zu erfassen trachtet. Immer sind es Umgebungs-, Nachbarschaftsrelationen und fundierende Toleranzrelationen, die als formaler, sprich: mathematischer Kern inhärent sind. Bemerkungen über die Möglichkeit einer algebraisch-topologischen Kennzeichnung von Wortfeldsystemen beschließen Teil 3. In Teil 4. stellen wir den Begriff der k-Toleranzrelation vor. Relationen dieser Art stehen in gewissem Sinne zwischen den Äquivalenzrelationen und den Toleranzrelationen. Mit Modellbildungen auf der Basis von k-Toleranzrelationen kommt man der Realität der Sprache vielleicht am nächsten. Für den Problemkreis der Synonymität bedeutet ihre Einführung, daß man jetzt weder die Gültigkeit strenger Äquivalenz noch die schwache Bedingung der Ununterscheidbarkeit fordert, sondern nur eine k-Ununterscheidbarkeit. Relationentheoretisch entspricht dem die Forderung einer abgeschwächten Transitivität. In Teil 5. deuten wir an, wie man die in Teil 3. angegebenen Definitionsschemata für Synonyma auf der Grundlage der k-Toleranzräume verschärfen kann.
  13. Faust, L.: Variationen von Sprache : ihre Bedeutung für unser Ohr und für die Sprachtechnologie (1997) 0.01
    0.009437565 = product of:
      0.03775026 = sum of:
        0.03775026 = weight(_text_:von in 3452) [ClassicSimilarity], result of:
          0.03775026 = score(doc=3452,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=3452)
      0.25 = coord(1/4)
    
  14. Chomsky, N.: Reflexionen über die Sprache (1977) 0.01
    0.009437565 = product of:
      0.03775026 = sum of:
        0.03775026 = weight(_text_:von in 2173) [ClassicSimilarity], result of:
          0.03775026 = score(doc=2173,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 2173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=2173)
      0.25 = coord(1/4)
    
    Issue
    Übers. von G. Meggle u. M. Ulkan
  15. Storms, G.; VanMechelen, I.; DeBoeck, P.: Structural-analysis of the intension and extension of semantic concepts (1994) 0.01
    0.009427017 = product of:
      0.037708066 = sum of:
        0.037708066 = product of:
          0.0565621 = sum of:
            0.011036771 = weight(_text_:a in 2574) [ClassicSimilarity], result of:
              0.011036771 = score(doc=2574,freq=10.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.19940455 = fieldWeight in 2574, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
            0.045525327 = weight(_text_:22 in 2574) [ClassicSimilarity], result of:
              0.045525327 = score(doc=2574,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.2708308 = fieldWeight in 2574, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    A method (HICLAS, DeBoeck & Rosenberg, 1988) for studying the internal structure of semantic concepts is presented. The proposed method reveals the internal structure of the extension as well as the intesion of a concept, together with a correspondence relation that shows the mutual dependence of both structures. Its use is illustrated with the analysis of simple concepts (e.g. sports) and conjunctive concepts (e.g. birds that are also pets). The underlying structure that is revealed can be interpreted as a differentiation of the simple concepts studied and for conjunctive concepts the proposed method is able to extract non-inherited and emergent features (Hampton, 1988)
    Date
    22. 7.2000 19:17:40
    Type
    a
  16. Whorf, B.L.: Sprache, Denken, Wirklichkeit : Beiträge zur Metalinguistik und Sprachphilosophie (1986) 0.01
    0.009342712 = product of:
      0.03737085 = sum of:
        0.03737085 = weight(_text_:von in 2573) [ClassicSimilarity], result of:
          0.03737085 = score(doc=2573,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 2573, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2573)
      0.25 = coord(1/4)
    
    Abstract
    Neben Edward Sapir und Franz Boas gilt Benjamin Lee Whorf als bedeutendster amerikanischer Pionier auf dem Gebiet der Linguistik, Sprachphilosophie und Kulturanthropologie. Im Hauptberuf Chemiker, beschäftigte er sich schon früh mit der SChriftkunst der Azteken und Mayassowie mit der Sprache der Hopi-Indianer. Die mit dieser Neuausgabe wieder vorliegenden Abhandlungen zur 'Metalinguistik' analysieren nicht nur die Sprache selbst, sondern setzen sie in Beziehung zur übrigen Kultur der Gesellschaft. Whorfs tiefgreifende sprachphilosophische Reflexionen stehen dabei auf dem soliden Fundament eigener linguistischer Forschungsarbeit. Auch wenn das Wissen inzwischen vorangeschritten ist, so bleiben doch seine anschaulich geschriebenen und klar verständlichen Aufsätze von hohem Interesse für jeden, der sich einlesen will in die Zusammenhänge von Sprache, Denken und Wirklichkeit
  17. Chomsky, N.: Aspects of the theory of syntax (1965) 0.01
    0.008671491 = product of:
      0.034685966 = sum of:
        0.034685966 = product of:
          0.10405789 = sum of:
            0.10405789 = weight(_text_:22 in 3829) [ClassicSimilarity], result of:
              0.10405789 = score(doc=3829,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.61904186 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    6. 1.1999 10:29:22
  18. Rieger, B.B.: Unscharfe Semantik : die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten (1990) 0.01
    0.008173171 = product of:
      0.032692686 = sum of:
        0.032692686 = weight(_text_:von in 209) [ClassicSimilarity], result of:
          0.032692686 = score(doc=209,freq=24.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.25527787 = fieldWeight in 209, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
      0.25 = coord(1/4)
    
    Abstract
    Computerlinguistische Forschungen zur natürlichsprachlichen Semantik gewinnen zunehmend in einem Bereich an Bedeutung, der sich erst seit einigen Jahren abzuzeichnen beginnt und als Kognitionswissenschaft charakterisiert wird. Für diese neue Forschungsrichtung ist ein gemeinsames Interesse mehrerer Disziplinen an Problemen kennzeichnend, die mit Prozessen des Lernens von Bedeutungen, des Erwerbs von Kenntnissen und der Verfügbarkeit und Verarbeitung von Wissen verbunden sind. Die Beherrschung solcher Prozesse bildet die Grundlage intelligenten Verhaltens von (natürlichen wie künstlichen) Systemen, deren Erforschung zunächst fragmentarisch unter jeweils unterschiedlichen Modell- und Theorienbildungen weitgehend isoliert innerhalb der einzelnen Disziplinen erfolgte. Die semantischen Repräsentationssysteme, die im Rahmen der einschlägigen Forschungen zur Künstlichen Intelligenz, der Kognitionstheorie und der experimentellen Psychologie im Hinblick auf die Darstellung strukturierten Wissens bzw. zur Modellierung von Gedächtnisstrukturen entwickelt wurden, bilden Bedeutungen und deren Zusammenhänge formal als gerichtete Graphen ab. Bei allen durch Themen-, Frage- und Problemstellung sowie den beschrittenen Lösungswegen diktierten Unterschieden, ist diesen Wissensrepräsentationen durchweg gemeinsam, daß sie die Kanten (Bedeutungsbeziehungen) zwischen ihren dargestellten Knoten (Bedeutungselementen) nach Art und Weise ihres Gegebenseins als statische und weitgehend unveränderliche Relationen auffassen. Der Aufbau dieser Wissensrepräsentationen geschieht dabei intellektuell, d.h. durch Verfahren, welche auf das Verständnis bzw. die Sachkenntnis und/oder Fertigkeiten bei (einem oder mehreren) Spezialisten angewiesen sind. Die so ermittelbaren lexiko-semantischen wie begrifflich-logischen Informationen sind folglich vom sprachlichen Vermögen und/oder Weltwissen des jeweiligen Systementwicklers bzw. der von ihm befragten Spezialisten abhängig. Damit bleiben die auf derartigen Informationen aufgebauten Wissensbasen nicht nur auf den durch die jeweiligen Experten abgedeckten Ausschnitt des Sprach- und Weltwissens beschränkt, sondern diese introspektiv ermittelten Ausschnitte werden darüber hinaus noch eingeschränkt durch die vorgegebene (meist auf prädikaten-logische Form festgelegte) Struktur der Abbildung ausschließlich solchen Wissens, das propositional ausdrückbar ist. Daher sind derartige Repräsentationen nur begrenzt geeignet, die Unschärfen und Unbestimmtheiten von Wissen aufgrund unvollständiger oder unsicherer Kenntnislage, und deren Veränderungen aufgrund hinzukommender neuer oder überdeckter alter Bedeutungen adäquat darzustellen.
    Neuere Entwicklungen auf kognitionswissenschaftlichem Gebiet zeigen jedoch, daß eine empirisch ausgerichtete computerlinguistische Semantikforschung einzelwissenschaftliche Ansätze auf diesem Gebiet integrieren und Lösungen gerade in bezug auf solche Probleme anbieten kann, die sich aus einer der augenfälligsten Besonderheiten natürlichsprachlicher Bedeutungen als dem Resultat regelgeleiteter Verwendung von Sprachzeichen in Kommunikationssituationen ergeben: der Vagheit. Nach der einleitenden, aus semiotischer Sicht formulierten Kritik an der strukturalistischen Statik linguistischer Theorien und Bechreibungsmodelle (Kapitel I) werden vor diesem Hintergrund im ersten Teil der Arbeit die zusätzlichen Begründungszusammenhänge für eine den Prozeß der Sprachverwendung einbeziehende empirische Modellbildung in der Semantik entwickelt, die sich aus den bisherigen Ergebnissen Kognitions-theoretischer und Informations-verarbeitender Forschungsansätze ergeben. In einem Überblick über die bisherige sprachphilosophische, sprachlogische und sprachwissenschaftliche Auseinandersetzung mit dem Phänomen semantischer Unschärfe (Kapitel II und III) und einer methodologischen Grundlegung Performanz-linguistischer Untersuchungen anhand statistischer Corpusanalyse, des Problems der Repräsentativität und des Computereinsatzes (Kapitel IV) wird nachfolgend eine kritische Bewertung der bisher einschlägigen Ergebnisse versucht (Kapitel V) die im Umkreis vornehmlich der experimentellen Psychologie mit ihrer Kognitions- und Verstehens-Forschung sowie der künstlichen Intelligenz mit ihren natürlichsprachlichen Systemen und Modellen zur Wissensrepräsentation entstanden.
    Die im zweiten Teil der Arbeit vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert (Kapitel VI) in dem die Konzeptionen der Dispositionsstruktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Sie begründen ein auf dem Gebrauch von Wörtern in Texten aufgebautes Modell assoziativ strukturierten Bedeutungs- und Welt-Wissens, dessen formale Entwicklung (Kapitel VII) auf der Theorie der unscharfen (fuzzy) Mengen sowie der daraus abgeleiteten Referenzsemantiken basiert. Im Unterschied dazu (Kapitel VIII) bietet die statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten die Möglichkeit eines empirischen Ansatzes der quantitativen Beschreibung von Wortbedeutungen als System. Diese (metrische) Raumstruktur des semantischen Raums gestattet es, seine Bedeutungselemente so zu repräsentieren, daß deren Positionen semantische Ähnlichkeiten darstellen. Auf ihnen können die Prozeduren (Kapitel IX) operieren, welche die Bedeutung eines sprachlichen Terms algorithmisch als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generieren. Sie liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Diese können als Grundlage gelten nicht nur für eine perspektivische je nach inhaltlichem Aspekt varierende Abhängigkeits- und Relevanz-Beziehung zwischen Bedeutungskomponenten, wodurch gleichen Lexemen unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern diese dynamischen und Aspekt-abhängigen Relevanzstrukturen können darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen bei logisch-deduktiven Schlußprozessen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen. Beispiele aus der Untersuchung eines Corpus deutscher Zeitungstexte veranschaulichen abschließend die in dem hier beschriebenen und vorgestellten computerlinguistischen Analysesystem entwickelten Verfahren und Mechanismen.
  19. O'Donnell, R.; Smeaton, A.F.: ¬A linguistic approach to information retrieval (1996) 0.01
    0.007913846 = product of:
      0.031655382 = sum of:
        0.031655382 = product of:
          0.04748307 = sum of:
            0.008461362 = weight(_text_:a in 2575) [ClassicSimilarity], result of:
              0.008461362 = score(doc=2575,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 2575, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
            0.039021708 = weight(_text_:22 in 2575) [ClassicSimilarity], result of:
              0.039021708 = score(doc=2575,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 2575, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    An important aspect of information retrieval systems is domain independence, where the subject of the information is not restricted to certain domains of knowledge. This should be able to represent any topic and although the text representation does not involve any semantic knowledge, lexical and syntactic analysis of the text allows the representation to remain domain independent. Reports research at Dublin City University, Ireland, which concentrates on the lexical and syntactic levels of natural language analysis and describes a domain independent automatic information retrieval system which accesses a very large database of newspaper text from the Wall Street Journal. The system represents the text in the form of syntax trees, and these trees are used in the matching process. Reports early results from the stuyd
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
    Type
    a
  20. Ebneter, T.: Angewandte Linguistik : eine Einführung (1976) 0.01
    0.007550052 = product of:
      0.030200208 = sum of:
        0.030200208 = weight(_text_:von in 5215) [ClassicSimilarity], result of:
          0.030200208 = score(doc=5215,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23581557 = fieldWeight in 5215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=5215)
      0.25 = coord(1/4)
    
    Abstract
    Die pragmatische Wende von der theoretischen und Systemlinguistik zur Angewandten Linguistik verlangt nach diesem einführenden Handbuch. Alle Bereiche und Faktoren, bei denen sich Sprachwissenschaft und andere Fächer überschneiden (Psycho-, Sozio- und Ethnolinguistik, Erwerb der Muttersprache im Zusammenhang mit der Entwicklungspsychologie, Lehr- und Lerntheorien, Medienkunde, kntrasticve Linguistik, Fehleranalyse uuu usw.) werden in verständlicher Form vorgestellt, generative, kognitive, behavioristische, system-strukturalistische, traditionelle ... usw.

Languages

  • e 25
  • d 18

Types

Classifications