Search (14 results, page 1 of 1)

  • × theme_ss:"Linguistik"
  1. Working with conceptual structures : contributions to ICCS 2000. 8th International Conference on Conceptual Structures: Logical, Linguistic, and Computational Issues. Darmstadt, August 14-18, 2000 (2000) 0.01
    0.0053685848 = product of:
      0.040264383 = sum of:
        0.027232954 = weight(_text_:software in 5089) [ClassicSimilarity], result of:
          0.027232954 = score(doc=5089,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.21695362 = fieldWeight in 5089, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5089)
        0.013031431 = weight(_text_:web in 5089) [ClassicSimilarity], result of:
          0.013031431 = score(doc=5089,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.12619963 = fieldWeight in 5089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5089)
      0.13333334 = coord(2/15)
    
    Content
    Concepts & Language: Knowledge organization by procedures of natural language processing. A case study using the method GABEK (J. Zelger, J. Gadner) - Computer aided narrative analysis using conceptual graphs (H. Schärfe, P. 0hrstrom) - Pragmatic representation of argumentative text: a challenge for the conceptual graph approach (H. Irandoust, B. Moulin) - Conceptual graphs as a knowledge representation core in a complex language learning environment (G. Angelova, A. Nenkova, S. Boycheva, T. Nikolov) - Conceptual Modeling and Ontologies: Relationships and actions in conceptual categories (Ch. Landauer, K.L. Bellman) - Concept approximations for formal concept analysis (J. Saquer, J.S. Deogun) - Faceted information representation (U. Priß) - Simple concept graphs with universal quantifiers (J. Tappe) - A framework for comparing methods for using or reusing multiple ontologies in an application (J. van ZyI, D. Corbett) - Designing task/method knowledge-based systems with conceptual graphs (M. Leclère, F.Trichet, Ch. Choquet) - A logical ontology (J. Farkas, J. Sarbo) - Algorithms and Tools: Fast concept analysis (Ch. Lindig) - A framework for conceptual graph unification (D. Corbett) - Visual CP representation of knowledge (H.D. Pfeiffer, R.T. Hartley) - Maximal isojoin for representing software textual specifications and detecting semantic anomalies (Th. Charnois) - Troika: using grids, lattices and graphs in knowledge acquisition (H.S. Delugach, B.E. Lampkin) - Open world theorem prover for conceptual graphs (J.E. Heaton, P. Kocura) - NetCare: a practical conceptual graphs software tool (S. Polovina, D. Strang) - CGWorld - a web based workbench for conceptual graphs management and applications (P. Dobrev, K. Toutanova) - Position papers: The edition project: Peirce's existential graphs (R. Mülller) - Mining association rules using formal concept analysis (N. Pasquier) - Contextual logic summary (R Wille) - Information channels and conceptual scaling (K.E. Wolff) - Spatial concepts - a rule exploration (S. Rudolph) - The TEXT-TO-ONTO learning environment (A. Mädche, St. Staab) - Controlling the semantics of metadata on audio-visual documents using ontologies (Th. Dechilly, B. Bachimont) - Building the ontological foundations of a terminology from natural language to conceptual graphs with Ribosome, a knowledge extraction system (Ch. Jacquelinet, A. Burgun) - CharGer: some lessons learned and new directions (H.S. Delugach) - Knowledge management using conceptual graphs (W.K. Pun)
  2. Linguistik und neue Medien (1998) 0.00
    0.0045747594 = product of:
      0.06862139 = sum of:
        0.06862139 = product of:
          0.13724278 = sum of:
            0.13724278 = weight(_text_:analyse in 5770) [ClassicSimilarity], result of:
              0.13724278 = score(doc=5770,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.8232472 = fieldWeight in 5770, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5770)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    RSWK
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
    Subject
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
  3. Glasersfeld, E. von: ¬Die semantische Analyse von Verben auf der Grundlage begrifflicher Situationen (1987) 0.00
    0.0032348433 = product of:
      0.048522647 = sum of:
        0.048522647 = product of:
          0.097045295 = sum of:
            0.097045295 = weight(_text_:analyse in 37) [ClassicSimilarity], result of:
              0.097045295 = score(doc=37,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.58212364 = fieldWeight in 37, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.078125 = fieldNorm(doc=37)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
  4. Pilch, H.: Empirical linguistics (1976) 0.00
    0.002587875 = product of:
      0.03881812 = sum of:
        0.03881812 = product of:
          0.07763624 = sum of:
            0.07763624 = weight(_text_:analyse in 7860) [ClassicSimilarity], result of:
              0.07763624 = score(doc=7860,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.46569893 = fieldWeight in 7860, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7860)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    The book is about real languages and the way to study them, as they are spoken and written by real people in different social situations. The linguist listens to them, using scientific methodology to analyse what he hears. This book explains a wide range of linguistic phenomena - including polyglott societies, lingzistic pathology, the reconstruction of unrecorded history - their relevance to other branches of science and their practical applicabiblity. It is couched in straightforward terms intelligible to a general audience, including students of modern language departments
  5. Heringer, H.J.; Strecker, B.; Wimmer, R.: Syntax : Fragen, Lösungen, Alternativen (1980) 0.00
    0.002587875 = product of:
      0.03881812 = sum of:
        0.03881812 = product of:
          0.07763624 = sum of:
            0.07763624 = weight(_text_:analyse in 8102) [ClassicSimilarity], result of:
              0.07763624 = score(doc=8102,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.46569893 = fieldWeight in 8102, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0625 = fieldNorm(doc=8102)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Der Band stellt verschiedene formale syntaktische Beschreibungssprachen und auf ihnen basierende Syntaxtheorien dar, die in neuerer Zeit entwickelt wurden und die Linguistik entscheidend beeinflußt haben. Behandelt werden die IC-Analyse, Phrasenstruktur- und Konstitutionsgrammatiken, generative Transformationsgrammatik, Depedenzgrammatik, funktionale und kategoriale Grammatik. Dabei zeigt sich, wie die neueren Theorien traditionelle Probleme der Grammatik aufgreifen, weiterentwickeln und zu welchen Ergebnissen sie kommen. Die Lösungsvorschläge der einzelnen Theorien werden beurteilt nach ihrer Relevanz für die thematischen Zusammenhänge, in denen sie stehen, nach ihrer Relevanz für andere Theorien und in ihrem Zusammenhang mit Nachbardisziplinen der Linguistik
  6. Amac, T.: Linguistic context analysis : a new approach to communication evaluation (1997) 0.00
    0.0024604585 = product of:
      0.036906876 = sum of:
        0.036906876 = weight(_text_:evaluation in 2576) [ClassicSimilarity], result of:
          0.036906876 = score(doc=2576,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.278072 = fieldWeight in 2576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.046875 = fieldNorm(doc=2576)
      0.06666667 = coord(1/15)
    
  7. Chomsky, N.: Aspects of the theory of syntax (1965) 0.00
    0.0022863504 = product of:
      0.034295253 = sum of:
        0.034295253 = product of:
          0.06859051 = sum of:
            0.06859051 = weight(_text_:22 in 3829) [ClassicSimilarity], result of:
              0.06859051 = score(doc=3829,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.61904186 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    6. 1.1999 10:29:22
  8. Warner, A.J.: Quantitative and qualitative assessments of the impact of linguistic theory on information science (1991) 0.00
    0.0020005566 = product of:
      0.030008348 = sum of:
        0.030008348 = product of:
          0.060016695 = sum of:
            0.060016695 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
              0.060016695 = score(doc=29,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.5416616 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    6. 1.1999 10:22:45
  9. Fischer, W.L.: Äquivalenz- und Toleranzstrukturen in der Linguistik : zur Theorie der Synonyma (1973) 0.00
    0.0016011659 = product of:
      0.024017487 = sum of:
        0.024017487 = product of:
          0.048034973 = sum of:
            0.048034973 = weight(_text_:analyse in 66) [ClassicSimilarity], result of:
              0.048034973 = score(doc=66,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2881365 = fieldWeight in 66, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=66)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    In verschiedenen Bereichen der Linguistik, im Strukturalismus, in der mathematischen Text- und Literaturtheorie spielen Äquivalenzrelationen als mathematische Modelle für empirische Relationen eine zentrale Rolle. Ohne im Einzelfall um einen detaillierten Nachweis bemüht zu sein, geht man im allgemeinen davon aus, daß die Gesetze, die eine Äquivalenzrelation in abstracto charakterisieren, in dem von der Äquivalenzstruktur modellierten realen Phänomen erfüllt sind. Bei genauer Analyse der jeweiligen Situation zeigt es sich jedoch häufig, daß die betreffenden empirischen Relationen nicht allen charakteristischen Eigenschaften der Äquivalenzrelationen genügen bzw. daß es große Schwierigkeiten bereitet, die Gültigkeit z.B. der Eigenschaft der Transitivität nachzuweisen. In all diesen Fällen schlagen wir daher vor, der abstrakten Modellbildung einen schwächeren Begriff, den der "Toleranzrelation" (bzw. des "Toleranzraumes") zugrundezulegen. In den Teilen 1. und 2. stellen wir die formalen Theorien der Äquivalenzrelationen und der Toleranzrelationen einander gegenüber und zeigen, wie sich beide in die Methodologie der Wissenschaften einordnen. In Teil 3. zeigen wir am Problembereich des Synonymenbegriffs inwiefern die schwächere Struktur des Toleranzraumes in vielen Fällen die konkrete Situation angemessener darstellt als ein Äquivalenzgebilde. Wir werden in diesem Zusammenhang die Elemente der von einer Toleranzrelation induzierten Topologie entwickeln und die Grundbeziehungen einer entsprechenden Topologisierung des Wortraumes einer gegebenen Sprache vorstellen. Die letztgenannte Modellstruktur, die zu einer Topologisierung von Worträumen Anlaß gibt, läßt sich auch ausgehend von Modellvorstellungen der inhaltbezogenen Grammatik motivieren. Von zentraler Bedeutung ist dort der Begriff des Wortfeldes. Wir werden mit diesem Begriff bewußt keine physikalischen Vorstellungen verbinden. Zu "Kraft" und "Kraftlinien" im physikalischen Modell lassen sich im (indogermanischen) Sprachbereich im Sinne der inhaltbezogenen Grammatik nur sehr dürftige Entsprechungen finden, die wenigstens in einigen ihrer Eigenschaften den Bezug auf die physikalischen Begriffe "Kraft" und "Kraftlinie" rechtfertigten. Physikalische Analogien scheinen im Zusammenhang mit dem Wortfeld` nur den metaphorischen Charakter eines hermeneutischen Gefasels zu haben.
    Footnote
    Vgl. auch: Rieger, B.: Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Wortbedeutung. Unter: http://www.ldv.uni-trier.de/ldv_archiv/http/www/public_html/ldvpage/rieger/pub/aufsaetze/scharf/scharf81.html.
  10. Kutschera, F. von: Sprachphilosophie (1971) 0.00
    0.0014007285 = product of:
      0.021010926 = sum of:
        0.021010926 = product of:
          0.042021852 = sum of:
            0.042021852 = weight(_text_:analyse in 4000) [ClassicSimilarity], result of:
              0.042021852 = score(doc=4000,freq=6.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.25206697 = fieldWeight in 4000, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4000)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Content
    Die Sprache ist in unserem Jahrhundert zu einem der aktuellsten Themen der Philosophie geworden. Der Anstoß zur Beschäftigung mit der Sprache hat sich von den verschiedensten philosophischen Fragestellungen her ergeben: von der Erkenntnistheorie durch eine Wendung der Vernunftkritik in eine Sprachkritik, von der Logik aufgrund ihrer Beschäftigung mit Kunstsprachen und mit der logischen Analyse der natürlichen Sprachen, von der Anthropologie durch die Hervorhebung der Sprache als wesensbestimmender Leistung des Menschen und durch die Entdeckung von Korrelationen zwischen Sprachform und Weltbild, von der Ethik durch ihre Beschäftigung mit den sprachlichen Formen ethischer Aussagen und deren Abgrenzung gegenüber deskriptiven Sätzen. Ganz allgemein läßt sich diese philosophische Hinwendung zur Sprache auch an dem Wandel in der Formulierung philosophischer Probleme ablesen. Wo man früher z.B. nach der "Natur der Kausalität" fragte, oder nach dem "Inhalt des Begriffes der Kausalität", empfindet man es heute als adäquater, das Problem als eine Frage nach dem Wortgebrauch zu formulieren und zu fragen: "Was sagt man, wenn man sagt, daß ein Ereignis A ein Ereignis B bewirkt? "' Die philosophische Aufmerksamkeit hat sich im Verlauf dieser Entwicklung teilweise so ausschließlich auf die Sprache konzentriert, daß man Philosophie überhaupt mit Sprachkritik identifiziert hat. Das gilt insbesondere für die beiden Hauptströmungen der analytischen Philosophie, für die von Bertrand Russell ausgehende und sich über Rudolf Carnap zu Nelson Goodman und Willard van Orman Quine fortsetzende Bestrebung einer logischen Analyse der Wissenschaftssprache, speziell der philosophischen Sprache, in der man versucht, den Sinn der Terme und Sätze dieser Sprache mit den Hilfsmitteln der modernen Logik zu klären und zu präzisieren, und, mehr noch, für die von George Edward Moore ausgehende, dann durch Ludwig Wittgenstein geprägte und in der Ordinary-LanguagePhilosophie der Oxforder Schule (Gilbert Ryle, John Langshaw Austin) fortentwickelte andere Hauptrichtung der analytischen Philosophie, in der man versucht, die philosophische Sprache durch die Analyse des umgangssprachlichen Gebrauchs ihrer Terme zu klären.
  11. Rieger, B.B.: Unscharfe Semantik : die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten (1990) 0.00
    0.0014007285 = product of:
      0.021010926 = sum of:
        0.021010926 = product of:
          0.042021852 = sum of:
            0.042021852 = weight(_text_:analyse in 209) [ClassicSimilarity], result of:
              0.042021852 = score(doc=209,freq=6.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.25206697 = fieldWeight in 209, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=209)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Die im zweiten Teil der Arbeit vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert (Kapitel VI) in dem die Konzeptionen der Dispositionsstruktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Sie begründen ein auf dem Gebrauch von Wörtern in Texten aufgebautes Modell assoziativ strukturierten Bedeutungs- und Welt-Wissens, dessen formale Entwicklung (Kapitel VII) auf der Theorie der unscharfen (fuzzy) Mengen sowie der daraus abgeleiteten Referenzsemantiken basiert. Im Unterschied dazu (Kapitel VIII) bietet die statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten die Möglichkeit eines empirischen Ansatzes der quantitativen Beschreibung von Wortbedeutungen als System. Diese (metrische) Raumstruktur des semantischen Raums gestattet es, seine Bedeutungselemente so zu repräsentieren, daß deren Positionen semantische Ähnlichkeiten darstellen. Auf ihnen können die Prozeduren (Kapitel IX) operieren, welche die Bedeutung eines sprachlichen Terms algorithmisch als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generieren. Sie liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Diese können als Grundlage gelten nicht nur für eine perspektivische je nach inhaltlichem Aspekt varierende Abhängigkeits- und Relevanz-Beziehung zwischen Bedeutungskomponenten, wodurch gleichen Lexemen unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern diese dynamischen und Aspekt-abhängigen Relevanzstrukturen können darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen bei logisch-deduktiven Schlußprozessen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen. Beispiele aus der Untersuchung eines Corpus deutscher Zeitungstexte veranschaulichen abschließend die in dem hier beschriebenen und vorgestellten computerlinguistischen Analysesystem entwickelten Verfahren und Mechanismen.
    Footnote
    Zugl.: Aachen, Techn. Hochsch., Habil.-Schr., 1986. - Vgl. auch: Rieger, B.: Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Wortbedeutung. Unter: http://www.ldv.uni-trier.de/ldv_archiv/http/www/public_html/ldvpage/rieger/pub/aufsaetze/scharf/scharf81.html.
  12. Storms, G.; VanMechelen, I.; DeBoeck, P.: Structural-analysis of the intension and extension of semantic concepts (1994) 0.00
    0.0010002783 = product of:
      0.015004174 = sum of:
        0.015004174 = product of:
          0.030008348 = sum of:
            0.030008348 = weight(_text_:22 in 2574) [ClassicSimilarity], result of:
              0.030008348 = score(doc=2574,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2708308 = fieldWeight in 2574, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    22. 7.2000 19:17:40
  13. Chafe, W.L.: Meaning and the structure of language (1980) 0.00
    0.0010002783 = product of:
      0.015004174 = sum of:
        0.015004174 = product of:
          0.030008348 = sum of:
            0.030008348 = weight(_text_:22 in 220) [ClassicSimilarity], result of:
              0.030008348 = score(doc=220,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2708308 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=220)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    22. 4.2007 12:21:29
  14. O'Donnell, R.; Smeaton, A.F.: ¬A linguistic approach to information retrieval (1996) 0.00
    8.573814E-4 = product of:
      0.01286072 = sum of:
        0.01286072 = product of:
          0.02572144 = sum of:
            0.02572144 = weight(_text_:22 in 2575) [ClassicSimilarity], result of:
              0.02572144 = score(doc=2575,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23214069 = fieldWeight in 2575, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon

Years

Languages

Types