Search (44 results, page 2 of 3)

  • × theme_ss:"Linguistik"
  1. Gardin, J.C.: Document analysis and linguistic theory (1973) 0.01
    0.0055609075 = product of:
      0.016682722 = sum of:
        0.016682722 = weight(_text_:e in 2387) [ClassicSimilarity], result of:
          0.016682722 = score(doc=2387,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.2540935 = fieldWeight in 2387, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.125 = fieldNorm(doc=2387)
      0.33333334 = coord(1/3)
    
    Language
    e
  2. Chomsky, N.: Logical structure in language (1957) 0.01
    0.0055609075 = product of:
      0.016682722 = sum of:
        0.016682722 = weight(_text_:e in 99) [ClassicSimilarity], result of:
          0.016682722 = score(doc=99,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.2540935 = fieldWeight in 99, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.125 = fieldNorm(doc=99)
      0.33333334 = coord(1/3)
    
    Language
    e
  3. Rieger, B.B.: Unscharfe Semantik : die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten (1990) 0.01
    0.0051849447 = product of:
      0.015554834 = sum of:
        0.015554834 = product of:
          0.031109668 = sum of:
            0.031109668 = weight(_text_:von in 209) [ClassicSimilarity], result of:
              0.031109668 = score(doc=209,freq=24.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.25527787 = fieldWeight in 209, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=209)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Computerlinguistische Forschungen zur natürlichsprachlichen Semantik gewinnen zunehmend in einem Bereich an Bedeutung, der sich erst seit einigen Jahren abzuzeichnen beginnt und als Kognitionswissenschaft charakterisiert wird. Für diese neue Forschungsrichtung ist ein gemeinsames Interesse mehrerer Disziplinen an Problemen kennzeichnend, die mit Prozessen des Lernens von Bedeutungen, des Erwerbs von Kenntnissen und der Verfügbarkeit und Verarbeitung von Wissen verbunden sind. Die Beherrschung solcher Prozesse bildet die Grundlage intelligenten Verhaltens von (natürlichen wie künstlichen) Systemen, deren Erforschung zunächst fragmentarisch unter jeweils unterschiedlichen Modell- und Theorienbildungen weitgehend isoliert innerhalb der einzelnen Disziplinen erfolgte. Die semantischen Repräsentationssysteme, die im Rahmen der einschlägigen Forschungen zur Künstlichen Intelligenz, der Kognitionstheorie und der experimentellen Psychologie im Hinblick auf die Darstellung strukturierten Wissens bzw. zur Modellierung von Gedächtnisstrukturen entwickelt wurden, bilden Bedeutungen und deren Zusammenhänge formal als gerichtete Graphen ab. Bei allen durch Themen-, Frage- und Problemstellung sowie den beschrittenen Lösungswegen diktierten Unterschieden, ist diesen Wissensrepräsentationen durchweg gemeinsam, daß sie die Kanten (Bedeutungsbeziehungen) zwischen ihren dargestellten Knoten (Bedeutungselementen) nach Art und Weise ihres Gegebenseins als statische und weitgehend unveränderliche Relationen auffassen. Der Aufbau dieser Wissensrepräsentationen geschieht dabei intellektuell, d.h. durch Verfahren, welche auf das Verständnis bzw. die Sachkenntnis und/oder Fertigkeiten bei (einem oder mehreren) Spezialisten angewiesen sind. Die so ermittelbaren lexiko-semantischen wie begrifflich-logischen Informationen sind folglich vom sprachlichen Vermögen und/oder Weltwissen des jeweiligen Systementwicklers bzw. der von ihm befragten Spezialisten abhängig. Damit bleiben die auf derartigen Informationen aufgebauten Wissensbasen nicht nur auf den durch die jeweiligen Experten abgedeckten Ausschnitt des Sprach- und Weltwissens beschränkt, sondern diese introspektiv ermittelten Ausschnitte werden darüber hinaus noch eingeschränkt durch die vorgegebene (meist auf prädikaten-logische Form festgelegte) Struktur der Abbildung ausschließlich solchen Wissens, das propositional ausdrückbar ist. Daher sind derartige Repräsentationen nur begrenzt geeignet, die Unschärfen und Unbestimmtheiten von Wissen aufgrund unvollständiger oder unsicherer Kenntnislage, und deren Veränderungen aufgrund hinzukommender neuer oder überdeckter alter Bedeutungen adäquat darzustellen.
    Neuere Entwicklungen auf kognitionswissenschaftlichem Gebiet zeigen jedoch, daß eine empirisch ausgerichtete computerlinguistische Semantikforschung einzelwissenschaftliche Ansätze auf diesem Gebiet integrieren und Lösungen gerade in bezug auf solche Probleme anbieten kann, die sich aus einer der augenfälligsten Besonderheiten natürlichsprachlicher Bedeutungen als dem Resultat regelgeleiteter Verwendung von Sprachzeichen in Kommunikationssituationen ergeben: der Vagheit. Nach der einleitenden, aus semiotischer Sicht formulierten Kritik an der strukturalistischen Statik linguistischer Theorien und Bechreibungsmodelle (Kapitel I) werden vor diesem Hintergrund im ersten Teil der Arbeit die zusätzlichen Begründungszusammenhänge für eine den Prozeß der Sprachverwendung einbeziehende empirische Modellbildung in der Semantik entwickelt, die sich aus den bisherigen Ergebnissen Kognitions-theoretischer und Informations-verarbeitender Forschungsansätze ergeben. In einem Überblick über die bisherige sprachphilosophische, sprachlogische und sprachwissenschaftliche Auseinandersetzung mit dem Phänomen semantischer Unschärfe (Kapitel II und III) und einer methodologischen Grundlegung Performanz-linguistischer Untersuchungen anhand statistischer Corpusanalyse, des Problems der Repräsentativität und des Computereinsatzes (Kapitel IV) wird nachfolgend eine kritische Bewertung der bisher einschlägigen Ergebnisse versucht (Kapitel V) die im Umkreis vornehmlich der experimentellen Psychologie mit ihrer Kognitions- und Verstehens-Forschung sowie der künstlichen Intelligenz mit ihren natürlichsprachlichen Systemen und Modellen zur Wissensrepräsentation entstanden.
    Die im zweiten Teil der Arbeit vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert (Kapitel VI) in dem die Konzeptionen der Dispositionsstruktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Sie begründen ein auf dem Gebrauch von Wörtern in Texten aufgebautes Modell assoziativ strukturierten Bedeutungs- und Welt-Wissens, dessen formale Entwicklung (Kapitel VII) auf der Theorie der unscharfen (fuzzy) Mengen sowie der daraus abgeleiteten Referenzsemantiken basiert. Im Unterschied dazu (Kapitel VIII) bietet die statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten die Möglichkeit eines empirischen Ansatzes der quantitativen Beschreibung von Wortbedeutungen als System. Diese (metrische) Raumstruktur des semantischen Raums gestattet es, seine Bedeutungselemente so zu repräsentieren, daß deren Positionen semantische Ähnlichkeiten darstellen. Auf ihnen können die Prozeduren (Kapitel IX) operieren, welche die Bedeutung eines sprachlichen Terms algorithmisch als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generieren. Sie liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Diese können als Grundlage gelten nicht nur für eine perspektivische je nach inhaltlichem Aspekt varierende Abhängigkeits- und Relevanz-Beziehung zwischen Bedeutungskomponenten, wodurch gleichen Lexemen unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern diese dynamischen und Aspekt-abhängigen Relevanzstrukturen können darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen bei logisch-deduktiven Schlußprozessen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen. Beispiele aus der Untersuchung eines Corpus deutscher Zeitungstexte veranschaulichen abschließend die in dem hier beschriebenen und vorgestellten computerlinguistischen Analysesystem entwickelten Verfahren und Mechanismen.
  4. Krömmelbein, U.: Linguistische und fachwissenschaftliche Gesichtspunkte der Schlagwortsyntax : Eine vergleichende Untersuchung der Regeln für die Schlagwortvergabe der Deutschen Bibliothek, der RSWK und der Indexierungsverfahren Voll-PRECIS und Kurz-PRECIS (1984) 0.01
    0.0050801877 = product of:
      0.015240562 = sum of:
        0.015240562 = product of:
          0.030481124 = sum of:
            0.030481124 = weight(_text_:von in 984) [ClassicSimilarity], result of:
              0.030481124 = score(doc=984,freq=4.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.2501202 = fieldWeight in 984, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=984)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die deutsche Bibliothek in Frankfurt bietet seit einigen Jahren zentrale Dienste im Bereich der verbalen Sacherschließung an, Um deren Akzeptanz zu verbessern, will die Deutsche Bibliothek ab 1986 von der augenblicklichen gleichordnenden Indexierung zu einem syntaktischen Verfahren übergehen. Als Alternativen standen die RSWK und eine verkürzte Version des britischen Indexierungsverfahrens PRECIS zur Diskussion. Die Anforderungen einer Fachwissenschaft an die Schlagwort-Syntax einer adäquaten Dokumentationssprache werden exemplarisch entwickelt, die vier Alternativen - augenblickliche verbale Sacherschließunf der DB, RSWK, PRECIS (britische Version) und Kurz-PRECIS (DB-Version) - an ihnen gemessen. Die Kriterien basiern auf Grammatiktheorien der modernen Linguistik und gehen von einer Analogie zwischen Dokumentationssprachen und natürlicher Sprache aus.
  5. Hays, D.G.: Linguistic foundations of the theory of content analysis (1969) 0.00
    0.0048657935 = product of:
      0.0145973805 = sum of:
        0.0145973805 = weight(_text_:e in 118) [ClassicSimilarity], result of:
          0.0145973805 = score(doc=118,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.2223318 = fieldWeight in 118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=118)
      0.33333334 = coord(1/3)
    
    Language
    e
  6. Ebneter, T.: Angewandte Linguistik : eine Einführung (1976) 0.00
    0.0047896467 = product of:
      0.014368939 = sum of:
        0.014368939 = product of:
          0.028737878 = sum of:
            0.028737878 = weight(_text_:von in 5215) [ClassicSimilarity], result of:
              0.028737878 = score(doc=5215,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.23581557 = fieldWeight in 5215, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5215)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die pragmatische Wende von der theoretischen und Systemlinguistik zur Angewandten Linguistik verlangt nach diesem einführenden Handbuch. Alle Bereiche und Faktoren, bei denen sich Sprachwissenschaft und andere Fächer überschneiden (Psycho-, Sozio- und Ethnolinguistik, Erwerb der Muttersprache im Zusammenhang mit der Entwicklungspsychologie, Lehr- und Lerntheorien, Medienkunde, kntrasticve Linguistik, Fehleranalyse uuu usw.) werden in verständlicher Form vorgestellt, generative, kognitive, behavioristische, system-strukturalistische, traditionelle ... usw.
  7. Adamzik, K.: Sprache : Wege zum Verstehen (2001) 0.00
    0.0047896467 = product of:
      0.014368939 = sum of:
        0.014368939 = product of:
          0.028737878 = sum of:
            0.028737878 = weight(_text_:von in 15) [ClassicSimilarity], result of:
              0.028737878 = score(doc=15,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.23581557 = fieldWeight in 15, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=15)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Werk ist sowohl ein 'Lesebuch' über die Sprache als auch eine systematische Einführung in die Linguistik. Beginnend mit der Betrachtung der Sprache in ihrer Vielfältigkeit und des Sprachgebrauchs in seinem Kontext, widmet sich die Autorin im weiteren Verlauf detailliert der Frage nach dem Funktionieren von Sprache
  8. Texte verstehen : Konzepte, Methoden, Werkzeuge (1994) 0.00
    0.0042334897 = product of:
      0.012700468 = sum of:
        0.012700468 = product of:
          0.025400937 = sum of:
            0.025400937 = weight(_text_:von in 1661) [ClassicSimilarity], result of:
              0.025400937 = score(doc=1661,freq=4.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.2084335 = fieldWeight in 1661, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1661)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Band faßt die Resultate des Projekts ATLAS zusammen und stellt diese mit weiterführenden Betrachtungen der Öffentlichkeit vor. Interdisziplinär werden verschiedene Aspekte von 'Text' durchleuchtet: Semiotik, Linguistik, Psychologie, Germanistik, Informatik, Verlagswesen - sie stellen die Beiträge dieses Buches. Bei der Komplexität des Themas 'Text' ist kein einheitliches disziplinunabhängiges Modell zur Beschreibung des Phänomens zu erwarten. Eher wird hier die vielfältige Facettierung sichtbar, mit der man sich auch dem Thema nähern kann. Vorgestellt werden auch die Werkzeuge, die prototypisch im Projekt ATLAS entwickelt wurden sowie die konkrete Anwendung dieser Methoden. Zum Abschluß des Buches wird die zukünftige Rolle von Text unter dem Einfluß der 'neuen Medien' problematisiert
  9. Lobanov, A.S.: Languages and metalanguages (1993) 0.00
    0.0041706804 = product of:
      0.01251204 = sum of:
        0.01251204 = weight(_text_:e in 7269) [ClassicSimilarity], result of:
          0.01251204 = score(doc=7269,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.19057012 = fieldWeight in 7269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=7269)
      0.33333334 = coord(1/3)
    
    Language
    e
  10. Hutchins, W.J.: Languages of indexing and classification : a linguistic study of structures and functions (1978) 0.00
    0.0041706804 = product of:
      0.01251204 = sum of:
        0.01251204 = weight(_text_:e in 2968) [ClassicSimilarity], result of:
          0.01251204 = score(doc=2968,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.19057012 = fieldWeight in 2968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=2968)
      0.33333334 = coord(1/3)
    
    Language
    e
  11. Beardon, C.; Lumsden, D.; Holmes, G.: Natural language and computational linguistics (1991) 0.00
    0.0041706804 = product of:
      0.01251204 = sum of:
        0.01251204 = weight(_text_:e in 645) [ClassicSimilarity], result of:
          0.01251204 = score(doc=645,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.19057012 = fieldWeight in 645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=645)
      0.33333334 = coord(1/3)
    
    Language
    e
  12. Crystal, D.: Linguistics and indexing (1984) 0.00
    0.003475567 = product of:
      0.010426701 = sum of:
        0.010426701 = weight(_text_:e in 1003) [ClassicSimilarity], result of:
          0.010426701 = score(doc=1003,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 1003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=1003)
      0.33333334 = coord(1/3)
    
    Language
    e
  13. Rasmussen, L.: Selected linguistic problems in indexing within the Canadian context (1992) 0.00
    0.003475567 = product of:
      0.010426701 = sum of:
        0.010426701 = weight(_text_:e in 1609) [ClassicSimilarity], result of:
          0.010426701 = score(doc=1609,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 1609, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=1609)
      0.33333334 = coord(1/3)
    
    Language
    e
  14. Johnson, F.C.; Paice, C.D.; Black, W.J.; Neal, A.P.: ¬The application of linguistic processing to automatic abstract generation (1993) 0.00
    0.003475567 = product of:
      0.010426701 = sum of:
        0.010426701 = weight(_text_:e in 2290) [ClassicSimilarity], result of:
          0.010426701 = score(doc=2290,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 2290, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=2290)
      0.33333334 = coord(1/3)
    
    Language
    e
  15. Dahl, V.: What the study of language can contribute to AI (1993) 0.00
    0.0027804538 = product of:
      0.008341361 = sum of:
        0.008341361 = weight(_text_:e in 5098) [ClassicSimilarity], result of:
          0.008341361 = score(doc=5098,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 5098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=5098)
      0.33333334 = coord(1/3)
    
    Language
    e
  16. Pilch, H.: Empirical linguistics (1976) 0.00
    0.0027804538 = product of:
      0.008341361 = sum of:
        0.008341361 = weight(_text_:e in 7860) [ClassicSimilarity], result of:
          0.008341361 = score(doc=7860,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 7860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=7860)
      0.33333334 = coord(1/3)
    
    Language
    e
  17. Sharada, B.A.: Infolinguistics : an interdisciplinary study (1995) 0.00
    0.0027804538 = product of:
      0.008341361 = sum of:
        0.008341361 = weight(_text_:e in 4225) [ClassicSimilarity], result of:
          0.008341361 = score(doc=4225,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 4225, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=4225)
      0.33333334 = coord(1/3)
    
    Language
    e
  18. Pandey, R.C.: Information retrieval systems : a linguistic approach (1997) 0.00
    0.0027804538 = product of:
      0.008341361 = sum of:
        0.008341361 = weight(_text_:e in 133) [ClassicSimilarity], result of:
          0.008341361 = score(doc=133,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=133)
      0.33333334 = coord(1/3)
    
    Language
    e
  19. Molina, M.P.: Interdisciplinary approaches to the concept and practice of written documentary content analysis (WTDCA) (1994) 0.00
    0.0024328968 = product of:
      0.0072986903 = sum of:
        0.0072986903 = weight(_text_:e in 6147) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=6147,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 6147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6147)
      0.33333334 = coord(1/3)
    
    Language
    e
  20. Harras, G.: Concepts in linguistics : concepts in natural language (2000) 0.00
    0.0024328968 = product of:
      0.0072986903 = sum of:
        0.0072986903 = weight(_text_:e in 5068) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=5068,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 5068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5068)
      0.33333334 = coord(1/3)
    
    Language
    e

Languages

  • e 27
  • d 17

Types

Classifications