Search (23 results, page 1 of 2)

  • × theme_ss:"Linguistik"
  1. Fischer, W.L.: Äquivalenz- und Toleranzstrukturen in der Linguistik : zur Theorie der Synonyma (1973) 0.06
    0.057197027 = product of:
      0.22878811 = sum of:
        0.1415639 = weight(_text_:mathematisches in 66) [ClassicSimilarity], result of:
          0.1415639 = score(doc=66,freq=4.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.46364123 = fieldWeight in 66, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02734375 = fieldNorm(doc=66)
        0.08722421 = weight(_text_:modell in 66) [ClassicSimilarity], result of:
          0.08722421 = score(doc=66,freq=6.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.40276074 = fieldWeight in 66, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=66)
      0.25 = coord(2/8)
    
    Abstract
    In verschiedenen Bereichen der Linguistik, im Strukturalismus, in der mathematischen Text- und Literaturtheorie spielen Äquivalenzrelationen als mathematische Modelle für empirische Relationen eine zentrale Rolle. Ohne im Einzelfall um einen detaillierten Nachweis bemüht zu sein, geht man im allgemeinen davon aus, daß die Gesetze, die eine Äquivalenzrelation in abstracto charakterisieren, in dem von der Äquivalenzstruktur modellierten realen Phänomen erfüllt sind. Bei genauer Analyse der jeweiligen Situation zeigt es sich jedoch häufig, daß die betreffenden empirischen Relationen nicht allen charakteristischen Eigenschaften der Äquivalenzrelationen genügen bzw. daß es große Schwierigkeiten bereitet, die Gültigkeit z.B. der Eigenschaft der Transitivität nachzuweisen. In all diesen Fällen schlagen wir daher vor, der abstrakten Modellbildung einen schwächeren Begriff, den der "Toleranzrelation" (bzw. des "Toleranzraumes") zugrundezulegen. In den Teilen 1. und 2. stellen wir die formalen Theorien der Äquivalenzrelationen und der Toleranzrelationen einander gegenüber und zeigen, wie sich beide in die Methodologie der Wissenschaften einordnen. In Teil 3. zeigen wir am Problembereich des Synonymenbegriffs inwiefern die schwächere Struktur des Toleranzraumes in vielen Fällen die konkrete Situation angemessener darstellt als ein Äquivalenzgebilde. Wir werden in diesem Zusammenhang die Elemente der von einer Toleranzrelation induzierten Topologie entwickeln und die Grundbeziehungen einer entsprechenden Topologisierung des Wortraumes einer gegebenen Sprache vorstellen. Die letztgenannte Modellstruktur, die zu einer Topologisierung von Worträumen Anlaß gibt, läßt sich auch ausgehend von Modellvorstellungen der inhaltbezogenen Grammatik motivieren. Von zentraler Bedeutung ist dort der Begriff des Wortfeldes. Wir werden mit diesem Begriff bewußt keine physikalischen Vorstellungen verbinden. Zu "Kraft" und "Kraftlinien" im physikalischen Modell lassen sich im (indogermanischen) Sprachbereich im Sinne der inhaltbezogenen Grammatik nur sehr dürftige Entsprechungen finden, die wenigstens in einigen ihrer Eigenschaften den Bezug auf die physikalischen Begriffe "Kraft" und "Kraftlinie" rechtfertigten. Physikalische Analogien scheinen im Zusammenhang mit dem Wortfeld` nur den metaphorischen Charakter eines hermeneutischen Gefasels zu haben.
    Wir beschränken uns daher auf die Darstellung des sprachlichen Feldbegriffes durch ein mathematisches Modell ... bzw.: wir definieren das sprachliche Feld über ein mathematisches Modell. Die Feldeigenschaften in einem System sprachlicher Entitäten sind zunächst solche des gegenseitigen Benachbartseins. Wir können von syntaktischen und/oder semantischen Umgebungen sprechen, in denen jeweils alle zu einem Wort (einer sprachlichen Einheit) synonymen oder sinnverwandten oder strukturverwandten Worte (Einheiten) liegen. Die Eigenschaften von Wortfeldern sind also in dieser Sicht vornehmlich topologischer Natur. Dabei bleibt es gleichgültig, welchem Autor man folgt, wenn man den Feldbegriff in der Sprache zu erfassen trachtet. Immer sind es Umgebungs-, Nachbarschaftsrelationen und fundierende Toleranzrelationen, die als formaler, sprich: mathematischer Kern inhärent sind. Bemerkungen über die Möglichkeit einer algebraisch-topologischen Kennzeichnung von Wortfeldsystemen beschließen Teil 3. In Teil 4. stellen wir den Begriff der k-Toleranzrelation vor. Relationen dieser Art stehen in gewissem Sinne zwischen den Äquivalenzrelationen und den Toleranzrelationen. Mit Modellbildungen auf der Basis von k-Toleranzrelationen kommt man der Realität der Sprache vielleicht am nächsten. Für den Problemkreis der Synonymität bedeutet ihre Einführung, daß man jetzt weder die Gültigkeit strenger Äquivalenz noch die schwache Bedingung der Ununterscheidbarkeit fordert, sondern nur eine k-Ununterscheidbarkeit. Relationentheoretisch entspricht dem die Forderung einer abgeschwächten Transitivität. In Teil 5. deuten wir an, wie man die in Teil 3. angegebenen Definitionsschemata für Synonyma auf der Grundlage der k-Toleranzräume verschärfen kann.
  2. O'Donnell, R.; Smeaton, A.F.: ¬A linguistic approach to information retrieval (1996) 0.03
    0.028735671 = product of:
      0.076628454 = sum of:
        0.01802184 = weight(_text_:information in 2575) [ClassicSimilarity], result of:
          0.01802184 = score(doc=2575,freq=12.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.2850541 = fieldWeight in 2575, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2575)
        0.048847705 = weight(_text_:retrieval in 2575) [ClassicSimilarity], result of:
          0.048847705 = score(doc=2575,freq=10.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.44838852 = fieldWeight in 2575, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=2575)
        0.009758915 = product of:
          0.029276744 = sum of:
            0.029276744 = weight(_text_:22 in 2575) [ClassicSimilarity], result of:
              0.029276744 = score(doc=2575,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.23214069 = fieldWeight in 2575, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    An important aspect of information retrieval systems is domain independence, where the subject of the information is not restricted to certain domains of knowledge. This should be able to represent any topic and although the text representation does not involve any semantic knowledge, lexical and syntactic analysis of the text allows the representation to remain domain independent. Reports research at Dublin City University, Ireland, which concentrates on the lexical and syntactic levels of natural language analysis and describes a domain independent automatic information retrieval system which accesses a very large database of newspaper text from the Wall Street Journal. The system represents the text in the form of syntax trees, and these trees are used in the matching process. Reports early results from the stuyd
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  3. Pandey, R.C.: Information retrieval systems : a linguistic approach (1997) 0.02
    0.022289848 = product of:
      0.08915939 = sum of:
        0.024029119 = weight(_text_:information in 133) [ClassicSimilarity], result of:
          0.024029119 = score(doc=133,freq=12.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.38007212 = fieldWeight in 133, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=133)
        0.06513027 = weight(_text_:retrieval in 133) [ClassicSimilarity], result of:
          0.06513027 = score(doc=133,freq=10.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.59785134 = fieldWeight in 133, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=133)
      0.25 = coord(2/8)
    
    Abstract
    Describes correspondence between linguistics and information retrieval. Notes relevant ideas of linguistics which are useful for information retrieval, particularly at the levels of semantics and syntax. Demonstrates that the conceptual model of Ranganathan based on canons, postulates and pronciples contains the principles expressed by other scholars in the field of information retrieval. Implements Ranganathan's conceptual models in information retrieval tools, using PRECIS as an example. Concludes the Ranganathan models contain all the germinal ideas to meet the challenges of modern technology
    Source
    International information communication and education. 16(1997) no.1, S.14-30
  4. Hutchins, W.J.: Linguistic processes in the indexing and retrieval of documents (1970) 0.02
    0.02112857 = product of:
      0.08451428 = sum of:
        0.058254283 = weight(_text_:retrieval in 1306) [ClassicSimilarity], result of:
          0.058254283 = score(doc=1306,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.5347345 = fieldWeight in 1306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=1306)
        0.026260002 = product of:
          0.07878 = sum of:
            0.07878 = weight(_text_:29 in 1306) [ClassicSimilarity], result of:
              0.07878 = score(doc=1306,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.6218451 = fieldWeight in 1306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=1306)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Source
    Linguistics. 61(1970), S.29-64
  5. Chomsky, N.: Aspects of the theory of syntax (1965) 0.01
    0.013070944 = product of:
      0.10456755 = sum of:
        0.10456755 = product of:
          0.15685132 = sum of:
            0.07878 = weight(_text_:29 in 3829) [ClassicSimilarity], result of:
              0.07878 = score(doc=3829,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.6218451 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
            0.07807132 = weight(_text_:22 in 3829) [ClassicSimilarity], result of:
              0.07807132 = score(doc=3829,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.61904186 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
          0.6666667 = coord(2/3)
      0.125 = coord(1/8)
    
    Date
    6. 1.1999 10:29:22
  6. Sharada, B.A.: Infolinguistics : an interdisciplinary study (1995) 0.01
    0.012765657 = product of:
      0.05106263 = sum of:
        0.021935485 = weight(_text_:information in 4225) [ClassicSimilarity], result of:
          0.021935485 = score(doc=4225,freq=10.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.3469568 = fieldWeight in 4225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=4225)
        0.029127141 = weight(_text_:retrieval in 4225) [ClassicSimilarity], result of:
          0.029127141 = score(doc=4225,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.26736724 = fieldWeight in 4225, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=4225)
      0.25 = coord(2/8)
    
    Abstract
    Discusses the importance of the theories and principles of linguistics to the organization of information. Infolinguistics studies information or knowledge using linguistics as a representation mechanism. Theoretical studies of search languages and index languages require a theoretical framework provided by the interdisciplinary approach of infolinguistics which is a blend of cognitive psychology, linguistics and information science. Discusses how infolinguistics can contribute to information retrieval using both computer and manual application of grammatical theories
    Source
    Library science with a slant to documentation and information studies. 32(1995) no.3, S.113-121
  7. Johnson, F.C.; Paice, C.D.; Black, W.J.; Neal, A.P.: ¬The application of linguistic processing to automatic abstract generation (1993) 0.01
    0.0121678095 = product of:
      0.048671238 = sum of:
        0.012262309 = weight(_text_:information in 2290) [ClassicSimilarity], result of:
          0.012262309 = score(doc=2290,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.19395474 = fieldWeight in 2290, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=2290)
        0.036408927 = weight(_text_:retrieval in 2290) [ClassicSimilarity], result of:
          0.036408927 = score(doc=2290,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.33420905 = fieldWeight in 2290, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=2290)
      0.25 = coord(2/8)
    
    Footnote
    Wiederabgedruckt in: Readings in information retrieval. Ed.: K. Sparck Jones u. P. Willett. San Francisco: Morgan Kaufmann 1997. S.538-552.
  8. Warner, A.J.: Quantitative and qualitative assessments of the impact of linguistic theory on information science (1991) 0.01
    0.011762233 = product of:
      0.047048934 = sum of:
        0.024278132 = weight(_text_:information in 29) [ClassicSimilarity], result of:
          0.024278132 = score(doc=29,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.3840108 = fieldWeight in 29, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=29)
        0.0227708 = product of:
          0.0683124 = sum of:
            0.0683124 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
              0.0683124 = score(doc=29,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.5416616 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Date
    6. 1.1999 10:22:45
    Source
    Journal of the American Society for Information Science. 42(1991) no.1, S.64-71
  9. Texte verstehen : Konzepte, Methoden, Werkzeuge (1994) 0.01
    0.008992664 = product of:
      0.07194131 = sum of:
        0.07194131 = weight(_text_:modell in 1661) [ClassicSimilarity], result of:
          0.07194131 = score(doc=1661,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.33219144 = fieldWeight in 1661, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
      0.125 = coord(1/8)
    
    Abstract
    Der Band faßt die Resultate des Projekts ATLAS zusammen und stellt diese mit weiterführenden Betrachtungen der Öffentlichkeit vor. Interdisziplinär werden verschiedene Aspekte von 'Text' durchleuchtet: Semiotik, Linguistik, Psychologie, Germanistik, Informatik, Verlagswesen - sie stellen die Beiträge dieses Buches. Bei der Komplexität des Themas 'Text' ist kein einheitliches disziplinunabhängiges Modell zur Beschreibung des Phänomens zu erwarten. Eher wird hier die vielfältige Facettierung sichtbar, mit der man sich auch dem Thema nähern kann. Vorgestellt werden auch die Werkzeuge, die prototypisch im Projekt ATLAS entwickelt wurden sowie die konkrete Anwendung dieser Methoden. Zum Abschluß des Buches wird die zukünftige Rolle von Text unter dem Einfluß der 'neuen Medien' problematisiert
  10. Suominen, V.: Linguistic / semiotic conditions of information retrieval / documentation in the light of a sausurean conception of language : 'organising knowledge' or 'communication concerning documents'? (1998) 0.01
    0.0073006856 = product of:
      0.029202743 = sum of:
        0.0073573855 = weight(_text_:information in 81) [ClassicSimilarity], result of:
          0.0073573855 = score(doc=81,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.116372846 = fieldWeight in 81, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=81)
        0.021845357 = weight(_text_:retrieval in 81) [ClassicSimilarity], result of:
          0.021845357 = score(doc=81,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.20052543 = fieldWeight in 81, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=81)
      0.25 = coord(2/8)
    
  11. Rieger, B.B.: Unscharfe Semantik : die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten (1990) 0.01
    0.006358774 = product of:
      0.05087019 = sum of:
        0.05087019 = weight(_text_:modell in 209) [ClassicSimilarity], result of:
          0.05087019 = score(doc=209,freq=4.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.23489483 = fieldWeight in 209, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
      0.125 = coord(1/8)
    
    Abstract
    Computerlinguistische Forschungen zur natürlichsprachlichen Semantik gewinnen zunehmend in einem Bereich an Bedeutung, der sich erst seit einigen Jahren abzuzeichnen beginnt und als Kognitionswissenschaft charakterisiert wird. Für diese neue Forschungsrichtung ist ein gemeinsames Interesse mehrerer Disziplinen an Problemen kennzeichnend, die mit Prozessen des Lernens von Bedeutungen, des Erwerbs von Kenntnissen und der Verfügbarkeit und Verarbeitung von Wissen verbunden sind. Die Beherrschung solcher Prozesse bildet die Grundlage intelligenten Verhaltens von (natürlichen wie künstlichen) Systemen, deren Erforschung zunächst fragmentarisch unter jeweils unterschiedlichen Modell- und Theorienbildungen weitgehend isoliert innerhalb der einzelnen Disziplinen erfolgte. Die semantischen Repräsentationssysteme, die im Rahmen der einschlägigen Forschungen zur Künstlichen Intelligenz, der Kognitionstheorie und der experimentellen Psychologie im Hinblick auf die Darstellung strukturierten Wissens bzw. zur Modellierung von Gedächtnisstrukturen entwickelt wurden, bilden Bedeutungen und deren Zusammenhänge formal als gerichtete Graphen ab. Bei allen durch Themen-, Frage- und Problemstellung sowie den beschrittenen Lösungswegen diktierten Unterschieden, ist diesen Wissensrepräsentationen durchweg gemeinsam, daß sie die Kanten (Bedeutungsbeziehungen) zwischen ihren dargestellten Knoten (Bedeutungselementen) nach Art und Weise ihres Gegebenseins als statische und weitgehend unveränderliche Relationen auffassen. Der Aufbau dieser Wissensrepräsentationen geschieht dabei intellektuell, d.h. durch Verfahren, welche auf das Verständnis bzw. die Sachkenntnis und/oder Fertigkeiten bei (einem oder mehreren) Spezialisten angewiesen sind. Die so ermittelbaren lexiko-semantischen wie begrifflich-logischen Informationen sind folglich vom sprachlichen Vermögen und/oder Weltwissen des jeweiligen Systementwicklers bzw. der von ihm befragten Spezialisten abhängig. Damit bleiben die auf derartigen Informationen aufgebauten Wissensbasen nicht nur auf den durch die jeweiligen Experten abgedeckten Ausschnitt des Sprach- und Weltwissens beschränkt, sondern diese introspektiv ermittelten Ausschnitte werden darüber hinaus noch eingeschränkt durch die vorgegebene (meist auf prädikaten-logische Form festgelegte) Struktur der Abbildung ausschließlich solchen Wissens, das propositional ausdrückbar ist. Daher sind derartige Repräsentationen nur begrenzt geeignet, die Unschärfen und Unbestimmtheiten von Wissen aufgrund unvollständiger oder unsicherer Kenntnislage, und deren Veränderungen aufgrund hinzukommender neuer oder überdeckter alter Bedeutungen adäquat darzustellen.
    Die im zweiten Teil der Arbeit vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert (Kapitel VI) in dem die Konzeptionen der Dispositionsstruktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Sie begründen ein auf dem Gebrauch von Wörtern in Texten aufgebautes Modell assoziativ strukturierten Bedeutungs- und Welt-Wissens, dessen formale Entwicklung (Kapitel VII) auf der Theorie der unscharfen (fuzzy) Mengen sowie der daraus abgeleiteten Referenzsemantiken basiert. Im Unterschied dazu (Kapitel VIII) bietet die statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten die Möglichkeit eines empirischen Ansatzes der quantitativen Beschreibung von Wortbedeutungen als System. Diese (metrische) Raumstruktur des semantischen Raums gestattet es, seine Bedeutungselemente so zu repräsentieren, daß deren Positionen semantische Ähnlichkeiten darstellen. Auf ihnen können die Prozeduren (Kapitel IX) operieren, welche die Bedeutung eines sprachlichen Terms algorithmisch als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generieren. Sie liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Diese können als Grundlage gelten nicht nur für eine perspektivische je nach inhaltlichem Aspekt varierende Abhängigkeits- und Relevanz-Beziehung zwischen Bedeutungskomponenten, wodurch gleichen Lexemen unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern diese dynamischen und Aspekt-abhängigen Relevanzstrukturen können darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen bei logisch-deduktiven Schlußprozessen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen. Beispiele aus der Untersuchung eines Corpus deutscher Zeitungstexte veranschaulichen abschließend die in dem hier beschriebenen und vorgestellten computerlinguistischen Analysesystem entwickelten Verfahren und Mechanismen.
  12. Chafe, W.L.: Meaning and the structure of language (1980) 0.01
    0.005718538 = product of:
      0.045748305 = sum of:
        0.045748305 = product of:
          0.068622455 = sum of:
            0.03446625 = weight(_text_:29 in 220) [ClassicSimilarity], result of:
              0.03446625 = score(doc=220,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.27205724 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=220)
            0.0341562 = weight(_text_:22 in 220) [ClassicSimilarity], result of:
              0.0341562 = score(doc=220,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.2708308 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=220)
          0.6666667 = coord(2/3)
      0.125 = coord(1/8)
    
    Date
    22. 4.2007 12:21:29
  13. Chomsky, N.: Syntactic structures (1957) 0.00
    0.0041031255 = product of:
      0.032825004 = sum of:
        0.032825004 = product of:
          0.09847501 = sum of:
            0.09847501 = weight(_text_:29 in 2836) [ClassicSimilarity], result of:
              0.09847501 = score(doc=2836,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.77730644 = fieldWeight in 2836, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.15625 = fieldNorm(doc=2836)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    6. 1.1999 10:30:29
  14. Gardin, J.C.: Document analysis and linguistic theory (1973) 0.00
    0.0032825002 = product of:
      0.026260002 = sum of:
        0.026260002 = product of:
          0.07878 = sum of:
            0.07878 = weight(_text_:29 in 2387) [ClassicSimilarity], result of:
              0.07878 = score(doc=2387,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.6218451 = fieldWeight in 2387, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2387)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Journal of documentation. 29(1973) no.2, S.137-168
  15. Köper, B.: Vergleich von ausgewählten Thesaurus-Begriffsfeldern hinsichtlich ihrer linguistischen Relation (1990) 0.00
    0.002145904 = product of:
      0.017167233 = sum of:
        0.017167233 = weight(_text_:information in 39) [ClassicSimilarity], result of:
          0.017167233 = score(doc=39,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.27153665 = fieldWeight in 39, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
      0.125 = coord(1/8)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  16. Kuhlen, R.: Linguistische Grundlagen (1980) 0.00
    0.002145904 = product of:
      0.017167233 = sum of:
        0.017167233 = weight(_text_:information in 3829) [ClassicSimilarity], result of:
          0.017167233 = score(doc=3829,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.27153665 = fieldWeight in 3829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=3829)
      0.125 = coord(1/8)
    
    Source
    Grundlagen der praktischen Information und Dokumentation: eine Einführung. 2. Aufl
  17. Krömmelbein, U.: linguistische und fachwissenschaftliche Gesichtspunkte. Eine vergleichende Untersuchung der Regeln für die Schlagwortvergabe der Deutschen Bibliothek, RSWK, Voll-PRECIS und Kurz-PRECIS : Schlagwort-Syntax (1983) 0.00
    0.0020515628 = product of:
      0.016412502 = sum of:
        0.016412502 = product of:
          0.049237505 = sum of:
            0.049237505 = weight(_text_:29 in 2566) [ClassicSimilarity], result of:
              0.049237505 = score(doc=2566,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.38865322 = fieldWeight in 2566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2566)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    6. 1.1999 9:29:10
  18. Lobanov, A.S.: Languages and metalanguages (1993) 0.00
    0.0018393464 = product of:
      0.014714771 = sum of:
        0.014714771 = weight(_text_:information in 7269) [ClassicSimilarity], result of:
          0.014714771 = score(doc=7269,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.23274569 = fieldWeight in 7269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=7269)
      0.125 = coord(1/8)
    
    Source
    International forum on information and documentation. 18(1993) no.2, S.3-8
  19. Hutchins, W.J.: Languages of indexing and classification : a linguistic study of structures and functions (1978) 0.00
    0.0018393464 = product of:
      0.014714771 = sum of:
        0.014714771 = weight(_text_:information in 2968) [ClassicSimilarity], result of:
          0.014714771 = score(doc=2968,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.23274569 = fieldWeight in 2968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=2968)
      0.125 = coord(1/8)
    
    Series
    Librarianship and information studies; vol.3
  20. Storms, G.; VanMechelen, I.; DeBoeck, P.: Structural-analysis of the intension and extension of semantic concepts (1994) 0.00
    0.001423175 = product of:
      0.0113854 = sum of:
        0.0113854 = product of:
          0.0341562 = sum of:
            0.0341562 = weight(_text_:22 in 2574) [ClassicSimilarity], result of:
              0.0341562 = score(doc=2574,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.2708308 = fieldWeight in 2574, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    22. 7.2000 19:17:40

Languages

  • e 16
  • d 7

Types

Classifications