Search (41 results, page 1 of 3)

  • × theme_ss:"Linguistik"
  1. Pandey, R.C.: Information retrieval systems : a linguistic approach (1997) 0.03
    0.031427376 = product of:
      0.09428213 = sum of:
        0.009942909 = weight(_text_:in in 133) [ClassicSimilarity], result of:
          0.009942909 = score(doc=133,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=133)
        0.08433922 = weight(_text_:education in 133) [ClassicSimilarity], result of:
          0.08433922 = score(doc=133,freq=2.0), product of:
            0.2025344 = queryWeight, product of:
              4.7112455 = idf(docFreq=1080, maxDocs=44218)
              0.042989567 = queryNorm
            0.4164192 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7112455 = idf(docFreq=1080, maxDocs=44218)
              0.0625 = fieldNorm(doc=133)
      0.33333334 = coord(2/6)
    
    Abstract
    Describes correspondence between linguistics and information retrieval. Notes relevant ideas of linguistics which are useful for information retrieval, particularly at the levels of semantics and syntax. Demonstrates that the conceptual model of Ranganathan based on canons, postulates and pronciples contains the principles expressed by other scholars in the field of information retrieval. Implements Ranganathan's conceptual models in information retrieval tools, using PRECIS as an example. Concludes the Ranganathan models contain all the germinal ideas to meet the challenges of modern technology
    Source
    International information communication and education. 16(1997) no.1, S.14-30
  2. O'Donnell, R.; Smeaton, A.F.: ¬A linguistic approach to information retrieval (1996) 0.01
    0.00831022 = product of:
      0.02493066 = sum of:
        0.007457182 = weight(_text_:in in 2575) [ClassicSimilarity], result of:
          0.007457182 = score(doc=2575,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.12752387 = fieldWeight in 2575, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2575)
        0.017473478 = product of:
          0.034946956 = sum of:
            0.034946956 = weight(_text_:22 in 2575) [ClassicSimilarity], result of:
              0.034946956 = score(doc=2575,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.23214069 = fieldWeight in 2575, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    An important aspect of information retrieval systems is domain independence, where the subject of the information is not restricted to certain domains of knowledge. This should be able to represent any topic and although the text representation does not involve any semantic knowledge, lexical and syntactic analysis of the text allows the representation to remain domain independent. Reports research at Dublin City University, Ireland, which concentrates on the lexical and syntactic levels of natural language analysis and describes a domain independent automatic information retrieval system which accesses a very large database of newspaper text from the Wall Street Journal. The system represents the text in the form of syntax trees, and these trees are used in the matching process. Reports early results from the stuyd
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  3. Chomsky, N.: Aspects of the theory of syntax (1965) 0.01
    0.0077659907 = product of:
      0.046595942 = sum of:
        0.046595942 = product of:
          0.093191884 = sum of:
            0.093191884 = weight(_text_:22 in 3829) [ClassicSimilarity], result of:
              0.093191884 = score(doc=3829,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.61904186 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1999 10:29:22
  4. Warner, A.J.: Quantitative and qualitative assessments of the impact of linguistic theory on information science (1991) 0.01
    0.006795242 = product of:
      0.04077145 = sum of:
        0.04077145 = product of:
          0.0815429 = sum of:
            0.0815429 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
              0.0815429 = score(doc=29,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.5416616 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1999 10:22:45
  5. Storms, G.; VanMechelen, I.; DeBoeck, P.: Structural-analysis of the intension and extension of semantic concepts (1994) 0.00
    0.003397621 = product of:
      0.020385725 = sum of:
        0.020385725 = product of:
          0.04077145 = sum of:
            0.04077145 = weight(_text_:22 in 2574) [ClassicSimilarity], result of:
              0.04077145 = score(doc=2574,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.2708308 = fieldWeight in 2574, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    22. 7.2000 19:17:40
  6. Chafe, W.L.: Meaning and the structure of language (1980) 0.00
    0.003397621 = product of:
      0.020385725 = sum of:
        0.020385725 = product of:
          0.04077145 = sum of:
            0.04077145 = weight(_text_:22 in 220) [ClassicSimilarity], result of:
              0.04077145 = score(doc=220,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.2708308 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=220)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    22. 4.2007 12:21:29
  7. Rasmussen, L.: Selected linguistic problems in indexing within the Canadian context (1992) 0.00
    0.0025369849 = product of:
      0.015221909 = sum of:
        0.015221909 = weight(_text_:in in 1609) [ClassicSimilarity], result of:
          0.015221909 = score(doc=1609,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.260307 = fieldWeight in 1609, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1609)
      0.16666667 = coord(1/6)
    
    Abstract
    Takes into account the linguistic characteristics of Canadian English and of Canadian French as well as the problem involved in bilingual indexing because of the trend in the English language towards nominalization
  8. Hutchins, W.J.: Linguistic processes in the indexing and retrieval of documents (1970) 0.00
    0.0023435662 = product of:
      0.014061396 = sum of:
        0.014061396 = weight(_text_:in in 1306) [ClassicSimilarity], result of:
          0.014061396 = score(doc=1306,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.24046129 = fieldWeight in 1306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.125 = fieldNorm(doc=1306)
      0.16666667 = coord(1/6)
    
  9. Dahl, V.: What the study of language can contribute to AI (1993) 0.00
    0.0023435662 = product of:
      0.014061396 = sum of:
        0.014061396 = weight(_text_:in in 5098) [ClassicSimilarity], result of:
          0.014061396 = score(doc=5098,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.24046129 = fieldWeight in 5098, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5098)
      0.16666667 = coord(1/6)
    
    Abstract
    Examines areas in which linguistics in particular and the study of language in general have provided useful insight into specific artificial intelligence areas besides the computational linguistics one. Discusses studies in these areas and argues that these links should be further and more deliberately explored since they have changes of leading the way towards a fruitful integration between the formal and humanistic sciences
  10. Chomsky, N.: Logical structure in language (1957) 0.00
    0.0023435662 = product of:
      0.014061396 = sum of:
        0.014061396 = weight(_text_:in in 99) [ClassicSimilarity], result of:
          0.014061396 = score(doc=99,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.24046129 = fieldWeight in 99, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.125 = fieldNorm(doc=99)
      0.16666667 = coord(1/6)
    
  11. Fischer, W.L.: Äquivalenz- und Toleranzstrukturen in der Linguistik : zur Theorie der Synonyma (1973) 0.00
    0.0022926633 = product of:
      0.01375598 = sum of:
        0.01375598 = weight(_text_:in in 66) [ClassicSimilarity], result of:
          0.01375598 = score(doc=66,freq=40.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.23523843 = fieldWeight in 66, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=66)
      0.16666667 = coord(1/6)
    
    Abstract
    In verschiedenen Bereichen der Linguistik, im Strukturalismus, in der mathematischen Text- und Literaturtheorie spielen Äquivalenzrelationen als mathematische Modelle für empirische Relationen eine zentrale Rolle. Ohne im Einzelfall um einen detaillierten Nachweis bemüht zu sein, geht man im allgemeinen davon aus, daß die Gesetze, die eine Äquivalenzrelation in abstracto charakterisieren, in dem von der Äquivalenzstruktur modellierten realen Phänomen erfüllt sind. Bei genauer Analyse der jeweiligen Situation zeigt es sich jedoch häufig, daß die betreffenden empirischen Relationen nicht allen charakteristischen Eigenschaften der Äquivalenzrelationen genügen bzw. daß es große Schwierigkeiten bereitet, die Gültigkeit z.B. der Eigenschaft der Transitivität nachzuweisen. In all diesen Fällen schlagen wir daher vor, der abstrakten Modellbildung einen schwächeren Begriff, den der "Toleranzrelation" (bzw. des "Toleranzraumes") zugrundezulegen. In den Teilen 1. und 2. stellen wir die formalen Theorien der Äquivalenzrelationen und der Toleranzrelationen einander gegenüber und zeigen, wie sich beide in die Methodologie der Wissenschaften einordnen. In Teil 3. zeigen wir am Problembereich des Synonymenbegriffs inwiefern die schwächere Struktur des Toleranzraumes in vielen Fällen die konkrete Situation angemessener darstellt als ein Äquivalenzgebilde. Wir werden in diesem Zusammenhang die Elemente der von einer Toleranzrelation induzierten Topologie entwickeln und die Grundbeziehungen einer entsprechenden Topologisierung des Wortraumes einer gegebenen Sprache vorstellen. Die letztgenannte Modellstruktur, die zu einer Topologisierung von Worträumen Anlaß gibt, läßt sich auch ausgehend von Modellvorstellungen der inhaltbezogenen Grammatik motivieren. Von zentraler Bedeutung ist dort der Begriff des Wortfeldes. Wir werden mit diesem Begriff bewußt keine physikalischen Vorstellungen verbinden. Zu "Kraft" und "Kraftlinien" im physikalischen Modell lassen sich im (indogermanischen) Sprachbereich im Sinne der inhaltbezogenen Grammatik nur sehr dürftige Entsprechungen finden, die wenigstens in einigen ihrer Eigenschaften den Bezug auf die physikalischen Begriffe "Kraft" und "Kraftlinie" rechtfertigten. Physikalische Analogien scheinen im Zusammenhang mit dem Wortfeld` nur den metaphorischen Charakter eines hermeneutischen Gefasels zu haben.
    Wir beschränken uns daher auf die Darstellung des sprachlichen Feldbegriffes durch ein mathematisches Modell ... bzw.: wir definieren das sprachliche Feld über ein mathematisches Modell. Die Feldeigenschaften in einem System sprachlicher Entitäten sind zunächst solche des gegenseitigen Benachbartseins. Wir können von syntaktischen und/oder semantischen Umgebungen sprechen, in denen jeweils alle zu einem Wort (einer sprachlichen Einheit) synonymen oder sinnverwandten oder strukturverwandten Worte (Einheiten) liegen. Die Eigenschaften von Wortfeldern sind also in dieser Sicht vornehmlich topologischer Natur. Dabei bleibt es gleichgültig, welchem Autor man folgt, wenn man den Feldbegriff in der Sprache zu erfassen trachtet. Immer sind es Umgebungs-, Nachbarschaftsrelationen und fundierende Toleranzrelationen, die als formaler, sprich: mathematischer Kern inhärent sind. Bemerkungen über die Möglichkeit einer algebraisch-topologischen Kennzeichnung von Wortfeldsystemen beschließen Teil 3. In Teil 4. stellen wir den Begriff der k-Toleranzrelation vor. Relationen dieser Art stehen in gewissem Sinne zwischen den Äquivalenzrelationen und den Toleranzrelationen. Mit Modellbildungen auf der Basis von k-Toleranzrelationen kommt man der Realität der Sprache vielleicht am nächsten. Für den Problemkreis der Synonymität bedeutet ihre Einführung, daß man jetzt weder die Gültigkeit strenger Äquivalenz noch die schwache Bedingung der Ununterscheidbarkeit fordert, sondern nur eine k-Ununterscheidbarkeit. Relationentheoretisch entspricht dem die Forderung einer abgeschwächten Transitivität. In Teil 5. deuten wir an, wie man die in Teil 3. angegebenen Definitionsschemata für Synonyma auf der Grundlage der k-Toleranzräume verschärfen kann.
  12. Fillmore, C.J.: ¬The case for case (1968) 0.00
    0.0020714393 = product of:
      0.012428636 = sum of:
        0.012428636 = weight(_text_:in in 35) [ClassicSimilarity], result of:
          0.012428636 = score(doc=35,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21253976 = fieldWeight in 35, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=35)
      0.16666667 = coord(1/6)
    
    Footnote
    Deutsche Übersetzung ('Plädoyer für Kasus') in: Kasustheorie. Hrsg. von W. Abraham. Frankfurt: Athenäum 1971 (Schwerpunkte Linguistik und Kommunikationswissenschaft; Bd.2) S.1-118.
    Source
    Universals in language. Ed.: E. Bach u. R.T. Harms
  13. Glasersfeld, E. von: ¬Die semantische Analyse von Verben auf der Grundlage begrifflicher Situationen (1987) 0.00
    0.0020714393 = product of:
      0.012428636 = sum of:
        0.012428636 = weight(_text_:in in 37) [ClassicSimilarity], result of:
          0.012428636 = score(doc=37,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21253976 = fieldWeight in 37, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=37)
      0.16666667 = coord(1/6)
    
    Footnote
    Original: 'Semantic analysis of verbs in terms of conceptual situations' in: Linguistics 94(1972) S.90-107
  14. Johnson, F.C.; Paice, C.D.; Black, W.J.; Neal, A.P.: ¬The application of linguistic processing to automatic abstract generation (1993) 0.00
    0.0020714393 = product of:
      0.012428636 = sum of:
        0.012428636 = weight(_text_:in in 2290) [ClassicSimilarity], result of:
          0.012428636 = score(doc=2290,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21253976 = fieldWeight in 2290, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=2290)
      0.16666667 = coord(1/6)
    
    Footnote
    Wiederabgedruckt in: Readings in information retrieval. Ed.: K. Sparck Jones u. P. Willett. San Francisco: Morgan Kaufmann 1997. S.538-552.
  15. Krömmelbein, U.: linguistische und fachwissenschaftliche Gesichtspunkte. Eine vergleichende Untersuchung der Regeln für die Schlagwortvergabe der Deutschen Bibliothek, RSWK, Voll-PRECIS und Kurz-PRECIS : Schlagwort-Syntax (1983) 0.00
    0.0020714393 = product of:
      0.012428636 = sum of:
        0.012428636 = weight(_text_:in in 2566) [ClassicSimilarity], result of:
          0.012428636 = score(doc=2566,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21253976 = fieldWeight in 2566, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=2566)
      0.16666667 = coord(1/6)
    
    Footnote
    Examensarbeit Höherer Dienst an der FHBD in Köln. - Auch veröffentlicht in: Bibliothek: Forschung und Praxis 8(1984) S.159-203
  16. Beaugrande, R.A. de; Dressler, W.U.: Einführung in die Textlinguistik (1981) 0.00
    0.0020506203 = product of:
      0.012303721 = sum of:
        0.012303721 = weight(_text_:in in 6226) [ClassicSimilarity], result of:
          0.012303721 = score(doc=6226,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21040362 = fieldWeight in 6226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=6226)
      0.16666667 = coord(1/6)
    
  17. Harras, G.: Concepts in linguistics : concepts in natural language (2000) 0.00
    0.0020506203 = product of:
      0.012303721 = sum of:
        0.012303721 = weight(_text_:in in 5068) [ClassicSimilarity], result of:
          0.012303721 = score(doc=5068,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21040362 = fieldWeight in 5068, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5068)
      0.16666667 = coord(1/6)
    
    Abstract
    This paper deals with different views of lexical semantics. The focus is on the relationship between lexical expressions and conceptual components. First the assumptions about lexicalization and decompositionality of concepts shared by the most semanticists are presented, followed by a discussion of the differences between two-level-semants and one-level-semantics. The final part is concentrated on the interpretation of conceptual components in situations of communication
    Series
    Lecture notes in computer science; vol.1867: Lecture notes on artificial intelligence
  18. Heringer, H.J.; Strecker, B.; Wimmer, R.: Syntax : Fragen, Lösungen, Alternativen (1980) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 8102) [ClassicSimilarity], result of:
          0.012177527 = score(doc=8102,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 8102, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=8102)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Band stellt verschiedene formale syntaktische Beschreibungssprachen und auf ihnen basierende Syntaxtheorien dar, die in neuerer Zeit entwickelt wurden und die Linguistik entscheidend beeinflußt haben. Behandelt werden die IC-Analyse, Phrasenstruktur- und Konstitutionsgrammatiken, generative Transformationsgrammatik, Depedenzgrammatik, funktionale und kategoriale Grammatik. Dabei zeigt sich, wie die neueren Theorien traditionelle Probleme der Grammatik aufgreifen, weiterentwickeln und zu welchen Ergebnissen sie kommen. Die Lösungsvorschläge der einzelnen Theorien werden beurteilt nach ihrer Relevanz für die thematischen Zusammenhänge, in denen sie stehen, nach ihrer Relevanz für andere Theorien und in ihrem Zusammenhang mit Nachbardisziplinen der Linguistik
  19. Vater, H.: Einführung in die Textlinguistik : Struktur und Verstehen von Texten (2001) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 6747) [ClassicSimilarity], result of:
          0.012177527 = score(doc=6747,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 6747, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6747)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Einführung gibt einen Überblick über gängige Ansätze in der Textlinguistik. Behandelt werden u.a. Definition von Text und Abgrenzung von Nicht-Text, Strukturierung von Texten, Zusammenhang zwischen Textthema und Textstruktur, thematische Progression in texten, Probleme der Textsorten-Klassifikation. Das Buch enthält Textbeispiele, an denen die einzelnen Phänomen erläutert und diskutiert werden sowie Aufgaben zu den einzelnen Themen
  20. Adamzik, K.: Sprache : Wege zum Verstehen (2001) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 15) [ClassicSimilarity], result of:
          0.012177527 = score(doc=15,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 15, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=15)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Werk ist sowohl ein 'Lesebuch' über die Sprache als auch eine systematische Einführung in die Linguistik. Beginnend mit der Betrachtung der Sprache in ihrer Vielfältigkeit und des Sprachgebrauchs in seinem Kontext, widmet sich die Autorin im weiteren Verlauf detailliert der Frage nach dem Funktionieren von Sprache

Languages

  • e 21
  • d 19
  • f 1
  • More… Less…

Types

  • m 22
  • a 18
  • s 3
  • x 1
  • More… Less…

Classifications