Search (20 results, page 1 of 1)

  • × year_i:[1990 TO 2000}
  • × theme_ss:"Linguistik"
  1. Texte verstehen : Konzepte, Methoden, Werkzeuge (1994) 0.08
    0.079139724 = product of:
      0.2261135 = sum of:
        0.073224016 = weight(_text_:allgemeines in 1661) [ClassicSimilarity], result of:
          0.073224016 = score(doc=1661,freq=4.0), product of:
            0.16427658 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02879306 = queryNorm
            0.44573617 = fieldWeight in 1661, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.035235714 = weight(_text_:medien in 1661) [ClassicSimilarity], result of:
          0.035235714 = score(doc=1661,freq=2.0), product of:
            0.1355183 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02879306 = queryNorm
            0.26000705 = fieldWeight in 1661, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.025914485 = weight(_text_:und in 1661) [ClassicSimilarity], result of:
          0.025914485 = score(doc=1661,freq=22.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.40608138 = fieldWeight in 1661, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.02381002 = weight(_text_:der in 1661) [ClassicSimilarity], result of:
          0.02381002 = score(doc=1661,freq=18.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.37019804 = fieldWeight in 1661, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.025914485 = weight(_text_:und in 1661) [ClassicSimilarity], result of:
          0.025914485 = score(doc=1661,freq=22.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.40608138 = fieldWeight in 1661, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.024396934 = weight(_text_:des in 1661) [ClassicSimilarity], result of:
          0.024396934 = score(doc=1661,freq=8.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.30596817 = fieldWeight in 1661, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1661)
        0.017617857 = product of:
          0.035235714 = sum of:
            0.035235714 = weight(_text_:medien in 1661) [ClassicSimilarity], result of:
              0.035235714 = score(doc=1661,freq=2.0), product of:
                0.1355183 = queryWeight, product of:
                  4.7066307 = idf(docFreq=1085, maxDocs=44218)
                  0.02879306 = queryNorm
                0.26000705 = fieldWeight in 1661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7066307 = idf(docFreq=1085, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1661)
          0.5 = coord(1/2)
      0.35 = coord(7/20)
    
    Abstract
    Der Band faßt die Resultate des Projekts ATLAS zusammen und stellt diese mit weiterführenden Betrachtungen der Öffentlichkeit vor. Interdisziplinär werden verschiedene Aspekte von 'Text' durchleuchtet: Semiotik, Linguistik, Psychologie, Germanistik, Informatik, Verlagswesen - sie stellen die Beiträge dieses Buches. Bei der Komplexität des Themas 'Text' ist kein einheitliches disziplinunabhängiges Modell zur Beschreibung des Phänomens zu erwarten. Eher wird hier die vielfältige Facettierung sichtbar, mit der man sich auch dem Thema nähern kann. Vorgestellt werden auch die Werkzeuge, die prototypisch im Projekt ATLAS entwickelt wurden sowie die konkrete Anwendung dieser Methoden. Zum Abschluß des Buches wird die zukünftige Rolle von Text unter dem Einfluß der 'neuen Medien' problematisiert
    BK
    70.03 / Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    Classification
    ES 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Allgemeines (""Linguistische Datenverarbeitung: LDV"")
    70.03 / Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    RVK
    ES 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Allgemeines (""Linguistische Datenverarbeitung: LDV"")
  2. Linguistik und neue Medien (1998) 0.07
    0.06837715 = product of:
      0.2735086 = sum of:
        0.15757892 = weight(_text_:medien in 5770) [ClassicSimilarity], result of:
          0.15757892 = score(doc=5770,freq=10.0), product of:
            0.1355183 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02879306 = queryNorm
            1.162787 = fieldWeight in 5770, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.015627023 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.015627023 = score(doc=5770,freq=2.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.015627023 = weight(_text_:und in 5770) [ClassicSimilarity], result of:
          0.015627023 = score(doc=5770,freq=2.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.24487628 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.005886175 = weight(_text_:in in 5770) [ClassicSimilarity], result of:
          0.005886175 = score(doc=5770,freq=2.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.15028831 = fieldWeight in 5770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=5770)
        0.07878946 = product of:
          0.15757892 = sum of:
            0.15757892 = weight(_text_:medien in 5770) [ClassicSimilarity], result of:
              0.15757892 = score(doc=5770,freq=10.0), product of:
                0.1355183 = queryWeight, product of:
                  4.7066307 = idf(docFreq=1085, maxDocs=44218)
                  0.02879306 = queryNorm
                1.162787 = fieldWeight in 5770, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.7066307 = idf(docFreq=1085, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5770)
          0.5 = coord(1/2)
      0.25 = coord(5/20)
    
    Footnote
    Publikation zu einem Kongress 1997 in Leipzig
    RSWK
    Lexikographie / Neue Medien / Kongress / Leipzig <1997> (2134)
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
    Subject
    Lexikographie / Neue Medien / Kongress / Leipzig <1997> (2134)
    Syntaktische Analyse / Neue Medien / Kongress / Leipzig <1997> (2134)
  3. Linke, A.; Nussbaumer, M.; Portmann, P.R.; Willi, U.: Studienbuch Linguistik (1994) 0.05
    0.04818834 = product of:
      0.19275336 = sum of:
        0.102513626 = weight(_text_:allgemeines in 1571) [ClassicSimilarity], result of:
          0.102513626 = score(doc=1571,freq=16.0), product of:
            0.16427658 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02879306 = queryNorm
            0.62403065 = fieldWeight in 1571, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1571)
        0.03326941 = weight(_text_:und in 1571) [ClassicSimilarity], result of:
          0.03326941 = score(doc=1571,freq=74.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.52133346 = fieldWeight in 1571, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1571)
        0.020787418 = weight(_text_:der in 1571) [ClassicSimilarity], result of:
          0.020787418 = score(doc=1571,freq=28.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.32320264 = fieldWeight in 1571, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1571)
        0.03326941 = weight(_text_:und in 1571) [ClassicSimilarity], result of:
          0.03326941 = score(doc=1571,freq=74.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.52133346 = fieldWeight in 1571, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1571)
        0.002913508 = weight(_text_:in in 1571) [ClassicSimilarity], result of:
          0.002913508 = score(doc=1571,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.07438892 = fieldWeight in 1571, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1571)
      0.25 = coord(5/20)
    
    Abstract
    Dieses Lehr- und Studienwerk gibt eine sehr gute Einführung in alle Aspekte der heutigen (synchronen) Sprachwissenschaft. Präsentiert die wichtigsten Ansätze der linguistischen Forschung (sowohl Sprachebenen als auch Bindestrich-Linguistiken), berücksichtigt dabei gleichermassen klassische Theorien wie neuere Ansätze. Dieses Buch versucht erfolgreich zu halten, was es im Titel verspricht: ein Studienbuch zu sein, will sagen: als Buch das ganze Studium an meinem Schreibtisch zu kauern und nicht vergeblich darauf zu warten, daß ich es benutze. Den drei Autoren ist eine durchaus lesbare Einführung in alle klassischen (und auch "modernen klassischen") Bereiche der Linguistik gelungen, die nur den einen Nachteil hat, daß sie als Einführung schon wieder ein wenig zu ausführlich ist. Für Studierende der Linguistik ist das natürlich äußerst empfehlenswert: hier können sie sich gründlich einlesen, und anhand der zahlreichen Literaturangaben weiterlesen. Wer allerdings Sprachwissenschaft eher nebenher betreibt, ist zur Einführung mit diesem Buch vielleicht etwas überfordert. Hat man sich allerdings durch den Text gekämpft und vielleicht für seine(n) Einführungskurs(e) das Notwendige (und klausurrelevante) von der Spreu getrennt, dann kann dieses Buch ein einigermaßen verläßlicher Begleiter durch die nächsten Jahre Linguistik werden. So manchen wissenschaftlichen Primärtext kann es zwar sicherlich nicht ersetzen, aber das will es ja auch nicht. Ärgerlicher ist dagegen schon, daß manche Themen (etwa "Sprache und Politik", "Lexikologie") nur ganz am Rande oder gar nicht vorkommen. Aber dafür gibt es natürlich auch wieder gelehrte Werke, die man aufsuchen und -schlagen kann. Wer gerne gründlich lernt und auch eine gewisse Textmenge nicht scheut, ist mit diesem Buch auf jeden Fall bestens beraten.
    BK
    17.06 / Sprachwissenschaft: Allgemeines
    Classification
    ER 500 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Geschichte der Sprachwissenschaft / Einführende Handbücher und Darstellungen. Allgemeine, Gesamtdarstellungen der Sprachwissenschaft und ihrer Geschichte.
    ER 700 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Sprachtheorie, allgemeines
    ER 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Geschichte der Sprachwissenschaft / Einzelne Perioden, Richtungen und Personen / 20. Jahrhundert / Gesamtdarstellungen, Handbücher, Einführungen
    GB 1610 Germanistik. Niederlandistik. Skandinavistik / Germanistik. Allgemeines / Grammatiken / Einführungen. Methodologie
    GC 1001 Germanistik. Niederlandistik. Skandinavistik / Deutsche Sprache / Allgemeines
    17.06 / Sprachwissenschaft: Allgemeines
    Issue
    2. Aufl., erg. um ein Kapitel "Phonetik und Phonologie
    RVK
    ER 500 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Geschichte der Sprachwissenschaft / Einführende Handbücher und Darstellungen. Allgemeine, Gesamtdarstellungen der Sprachwissenschaft und ihrer Geschichte.
    ER 700 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Sprachtheorie, allgemeines
    ER 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Geschichte der Sprachwissenschaft / Einzelne Perioden, Richtungen und Personen / 20. Jahrhundert / Gesamtdarstellungen, Handbücher, Einführungen
    GB 1610 Germanistik. Niederlandistik. Skandinavistik / Germanistik. Allgemeines / Grammatiken / Einführungen. Methodologie
    GC 1001 Germanistik. Niederlandistik. Skandinavistik / Deutsche Sprache / Allgemeines
    Series
    Reihe Germanistik und Linguistik; 121
  4. Miller, G.A.: Wörter : Streifzüge durch die Psycholinguistik (1993) 0.04
    0.037042707 = product of:
      0.14817083 = sum of:
        0.05857921 = weight(_text_:allgemeines in 1458) [ClassicSimilarity], result of:
          0.05857921 = score(doc=1458,freq=4.0), product of:
            0.16427658 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02879306 = queryNorm
            0.35658893 = fieldWeight in 1458, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=1458)
        0.031872995 = weight(_text_:und in 1458) [ClassicSimilarity], result of:
          0.031872995 = score(doc=1458,freq=52.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.49945155 = fieldWeight in 1458, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1458)
        0.020078372 = weight(_text_:der in 1458) [ClassicSimilarity], result of:
          0.020078372 = score(doc=1458,freq=20.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.3121784 = fieldWeight in 1458, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1458)
        0.031872995 = weight(_text_:und in 1458) [ClassicSimilarity], result of:
          0.031872995 = score(doc=1458,freq=52.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.49945155 = fieldWeight in 1458, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1458)
        0.0057672504 = weight(_text_:in in 1458) [ClassicSimilarity], result of:
          0.0057672504 = score(doc=1458,freq=12.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.14725187 = fieldWeight in 1458, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1458)
      0.25 = coord(5/20)
    
    Abstract
    Wörter sind der sprachliche Ausdruck unseres Denkens, von uns selbst geschaffen, und doch etwas, das wir selten einer näheren Betrachtung unterziehen. Dabei kann uns gerade diese Betrachtung einiges darüber sagen, was in unseren Gehirnen vor sich geht. Die Sprachforschung hat in den letzten Jahrzehnten durch die Ansätze der Kognitionspsychologie neuen Schwung bekommen - und Georg A. Miller hat als einer der Begründer der modernen Psycholinguistik einen nicht unwesentlichen Anteil daran gehabt. In diesem Buch erzühlt er, oft geürzt mit seinem ganz besonderen Humor, was die Linguistik im Reich der Wörter so alles entdeckt hat. Miller führt dem Leser die verschiedenen Seiten von Wörtern vor Augen; jedes einzelne davon ist das Zusammenspiel einer Äußerung - in der phonetischen Aussprache - , einer Bedeutung - in der Semantik - und einer Rolle im Satz - in der Syntax. Diese drei Seiten sieht Miller als Einheit, wobei er dem Leser die Theorien und Methoden, mit denen die Forschung den Wörtern zu Leibe rückt, anschaulich vorstellt
    BK
    17.30 / Psycholinguistik: Allgemeines
    18.00 / Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Sprechen und Denken, Kompetenz und Performanz, Pragmatik / Einzelfaktoren (Ausdrucksfähigkeit, Kreativität, Sprachgefühl, Intuition, assoziatives Sprechen (Kollokation), Sprechmechanismen)
    ET 500 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone)
    17.30 / Psycholinguistik: Allgemeines
    18.00 / Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Sprechen und Denken, Kompetenz und Performanz, Pragmatik / Einzelfaktoren (Ausdrucksfähigkeit, Kreativität, Sprachgefühl, Intuition, assoziatives Sprechen (Kollokation), Sprechmechanismen)
    ET 500 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone)
  5. Bies, W.: Linguistische Pragmatik : eine vernachlässigte Referenzdisziplin der Inhaltserschließung (1992) 0.03
    0.03243419 = product of:
      0.12973677 = sum of:
        0.028941648 = weight(_text_:und in 22) [ClassicSimilarity], result of:
          0.028941648 = score(doc=22,freq=14.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.4535172 = fieldWeight in 22, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=22)
        0.03513715 = weight(_text_:der in 22) [ClassicSimilarity], result of:
          0.03513715 = score(doc=22,freq=20.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.5463122 = fieldWeight in 22, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=22)
        0.028941648 = weight(_text_:und in 22) [ClassicSimilarity], result of:
          0.028941648 = score(doc=22,freq=14.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.4535172 = fieldWeight in 22, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=22)
        0.029579712 = weight(_text_:des in 22) [ClassicSimilarity], result of:
          0.029579712 = score(doc=22,freq=6.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.3709667 = fieldWeight in 22, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=22)
        0.0071366085 = weight(_text_:in in 22) [ClassicSimilarity], result of:
          0.0071366085 = score(doc=22,freq=6.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.1822149 = fieldWeight in 22, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=22)
      0.25 = coord(5/20)
    
    Abstract
    Die Pragmalinguistik, eine bislang vernachlässigte Referenzdisziplin der bibliothekarischen Inhaltserschließung, stellt ein reiches Reservoir an Erkenntnissen, Konzepten und Methoden bereit, um die 'pragmatische Wende', vor allem die benutzerorientierung, in der Inhaltserschließung zu fördern, um den Prozeß der Inhaltsanalyse aufzuwerten, um eine Neubewertung von Konzepten wie Aspekt und Facette zu ermöglichen und um die semantischen und lexikalischen Gesetzmäßigkeiten des Schlagwortkatalogs neu zu bestimmen und, neu definiert, in eine (noch zu erbringende) Theorie des Schlagwortkatalogs einzubringen. Überdies kann die Pragmalinguistik wertvolle Hilfestellung bei der Evaluierung und Optimierung der Inhaltserschließung für den OPAC leisten
    Series
    Fortschritte in der Wissensorganisation; Bd.2
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  6. Rieger, B.B.: Unscharfe Semantik : die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten (1990) 0.02
    0.023932807 = product of:
      0.09573123 = sum of:
        0.02561831 = weight(_text_:und in 209) [ClassicSimilarity], result of:
          0.02561831 = score(doc=209,freq=86.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.4014403 = fieldWeight in 209, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
        0.023476996 = weight(_text_:der in 209) [ClassicSimilarity], result of:
          0.023476996 = score(doc=209,freq=70.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.3650202 = fieldWeight in 209, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
        0.02561831 = weight(_text_:und in 209) [ClassicSimilarity], result of:
          0.02561831 = score(doc=209,freq=86.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.4014403 = fieldWeight in 209, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
        0.016137054 = weight(_text_:des in 209) [ClassicSimilarity], result of:
          0.016137054 = score(doc=209,freq=14.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.20237891 = fieldWeight in 209, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
        0.0048805587 = weight(_text_:in in 209) [ClassicSimilarity], result of:
          0.0048805587 = score(doc=209,freq=22.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.12461249 = fieldWeight in 209, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=209)
      0.25 = coord(5/20)
    
    Abstract
    Computerlinguistische Forschungen zur natürlichsprachlichen Semantik gewinnen zunehmend in einem Bereich an Bedeutung, der sich erst seit einigen Jahren abzuzeichnen beginnt und als Kognitionswissenschaft charakterisiert wird. Für diese neue Forschungsrichtung ist ein gemeinsames Interesse mehrerer Disziplinen an Problemen kennzeichnend, die mit Prozessen des Lernens von Bedeutungen, des Erwerbs von Kenntnissen und der Verfügbarkeit und Verarbeitung von Wissen verbunden sind. Die Beherrschung solcher Prozesse bildet die Grundlage intelligenten Verhaltens von (natürlichen wie künstlichen) Systemen, deren Erforschung zunächst fragmentarisch unter jeweils unterschiedlichen Modell- und Theorienbildungen weitgehend isoliert innerhalb der einzelnen Disziplinen erfolgte. Die semantischen Repräsentationssysteme, die im Rahmen der einschlägigen Forschungen zur Künstlichen Intelligenz, der Kognitionstheorie und der experimentellen Psychologie im Hinblick auf die Darstellung strukturierten Wissens bzw. zur Modellierung von Gedächtnisstrukturen entwickelt wurden, bilden Bedeutungen und deren Zusammenhänge formal als gerichtete Graphen ab. Bei allen durch Themen-, Frage- und Problemstellung sowie den beschrittenen Lösungswegen diktierten Unterschieden, ist diesen Wissensrepräsentationen durchweg gemeinsam, daß sie die Kanten (Bedeutungsbeziehungen) zwischen ihren dargestellten Knoten (Bedeutungselementen) nach Art und Weise ihres Gegebenseins als statische und weitgehend unveränderliche Relationen auffassen. Der Aufbau dieser Wissensrepräsentationen geschieht dabei intellektuell, d.h. durch Verfahren, welche auf das Verständnis bzw. die Sachkenntnis und/oder Fertigkeiten bei (einem oder mehreren) Spezialisten angewiesen sind. Die so ermittelbaren lexiko-semantischen wie begrifflich-logischen Informationen sind folglich vom sprachlichen Vermögen und/oder Weltwissen des jeweiligen Systementwicklers bzw. der von ihm befragten Spezialisten abhängig. Damit bleiben die auf derartigen Informationen aufgebauten Wissensbasen nicht nur auf den durch die jeweiligen Experten abgedeckten Ausschnitt des Sprach- und Weltwissens beschränkt, sondern diese introspektiv ermittelten Ausschnitte werden darüber hinaus noch eingeschränkt durch die vorgegebene (meist auf prädikaten-logische Form festgelegte) Struktur der Abbildung ausschließlich solchen Wissens, das propositional ausdrückbar ist. Daher sind derartige Repräsentationen nur begrenzt geeignet, die Unschärfen und Unbestimmtheiten von Wissen aufgrund unvollständiger oder unsicherer Kenntnislage, und deren Veränderungen aufgrund hinzukommender neuer oder überdeckter alter Bedeutungen adäquat darzustellen.
    Neuere Entwicklungen auf kognitionswissenschaftlichem Gebiet zeigen jedoch, daß eine empirisch ausgerichtete computerlinguistische Semantikforschung einzelwissenschaftliche Ansätze auf diesem Gebiet integrieren und Lösungen gerade in bezug auf solche Probleme anbieten kann, die sich aus einer der augenfälligsten Besonderheiten natürlichsprachlicher Bedeutungen als dem Resultat regelgeleiteter Verwendung von Sprachzeichen in Kommunikationssituationen ergeben: der Vagheit. Nach der einleitenden, aus semiotischer Sicht formulierten Kritik an der strukturalistischen Statik linguistischer Theorien und Bechreibungsmodelle (Kapitel I) werden vor diesem Hintergrund im ersten Teil der Arbeit die zusätzlichen Begründungszusammenhänge für eine den Prozeß der Sprachverwendung einbeziehende empirische Modellbildung in der Semantik entwickelt, die sich aus den bisherigen Ergebnissen Kognitions-theoretischer und Informations-verarbeitender Forschungsansätze ergeben. In einem Überblick über die bisherige sprachphilosophische, sprachlogische und sprachwissenschaftliche Auseinandersetzung mit dem Phänomen semantischer Unschärfe (Kapitel II und III) und einer methodologischen Grundlegung Performanz-linguistischer Untersuchungen anhand statistischer Corpusanalyse, des Problems der Repräsentativität und des Computereinsatzes (Kapitel IV) wird nachfolgend eine kritische Bewertung der bisher einschlägigen Ergebnisse versucht (Kapitel V) die im Umkreis vornehmlich der experimentellen Psychologie mit ihrer Kognitions- und Verstehens-Forschung sowie der künstlichen Intelligenz mit ihren natürlichsprachlichen Systemen und Modellen zur Wissensrepräsentation entstanden.
    Die im zweiten Teil der Arbeit vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert (Kapitel VI) in dem die Konzeptionen der Dispositionsstruktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Sie begründen ein auf dem Gebrauch von Wörtern in Texten aufgebautes Modell assoziativ strukturierten Bedeutungs- und Welt-Wissens, dessen formale Entwicklung (Kapitel VII) auf der Theorie der unscharfen (fuzzy) Mengen sowie der daraus abgeleiteten Referenzsemantiken basiert. Im Unterschied dazu (Kapitel VIII) bietet die statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten die Möglichkeit eines empirischen Ansatzes der quantitativen Beschreibung von Wortbedeutungen als System. Diese (metrische) Raumstruktur des semantischen Raums gestattet es, seine Bedeutungselemente so zu repräsentieren, daß deren Positionen semantische Ähnlichkeiten darstellen. Auf ihnen können die Prozeduren (Kapitel IX) operieren, welche die Bedeutung eines sprachlichen Terms algorithmisch als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generieren. Sie liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Diese können als Grundlage gelten nicht nur für eine perspektivische je nach inhaltlichem Aspekt varierende Abhängigkeits- und Relevanz-Beziehung zwischen Bedeutungskomponenten, wodurch gleichen Lexemen unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern diese dynamischen und Aspekt-abhängigen Relevanzstrukturen können darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen bei logisch-deduktiven Schlußprozessen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen. Beispiele aus der Untersuchung eines Corpus deutscher Zeitungstexte veranschaulichen abschließend die in dem hier beschriebenen und vorgestellten computerlinguistischen Analysesystem entwickelten Verfahren und Mechanismen.
    Classification
    ET 450 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Synchrone Semantik / Einzelprobleme / Bedeutung (semantische Komponentenanalyse, semantisches Merkmal)
    Footnote
    Zugl.: Aachen, Techn. Hochsch., Habil.-Schr., 1986. - Vgl. auch: Rieger, B.: Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Wortbedeutung. Unter: http://www.ldv.uni-trier.de/ldv_archiv/http/www/public_html/ldvpage/rieger/pub/aufsaetze/scharf/scharf81.html.
    RVK
    ET 450 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Synchrone Semantik / Einzelprobleme / Bedeutung (semantische Komponentenanalyse, semantisches Merkmal)
  7. Köper, B.: Vergleich von ausgewählten Thesaurus-Begriffsfeldern hinsichtlich ihrer linguistischen Relation (1990) 0.01
    0.014405333 = product of:
      0.096035555 = sum of:
        0.030939924 = weight(_text_:und in 39) [ClassicSimilarity], result of:
          0.030939924 = score(doc=39,freq=4.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.4848303 = fieldWeight in 39, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
        0.030939924 = weight(_text_:und in 39) [ClassicSimilarity], result of:
          0.030939924 = score(doc=39,freq=4.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.4848303 = fieldWeight in 39, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
        0.034155704 = weight(_text_:des in 39) [ClassicSimilarity], result of:
          0.034155704 = score(doc=39,freq=2.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.4283554 = fieldWeight in 39, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
      0.15 = coord(3/20)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Faust, L.: Variationen von Sprache : ihre Bedeutung für unser Ohr und für die Sprachtechnologie (1997) 0.01
    0.007069109 = product of:
      0.047127392 = sum of:
        0.015627023 = weight(_text_:und in 3452) [ClassicSimilarity], result of:
          0.015627023 = score(doc=3452,freq=2.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.24487628 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3452)
        0.015873346 = weight(_text_:der in 3452) [ClassicSimilarity], result of:
          0.015873346 = score(doc=3452,freq=2.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.2467987 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3452)
        0.015627023 = weight(_text_:und in 3452) [ClassicSimilarity], result of:
          0.015627023 = score(doc=3452,freq=2.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.24487628 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3452)
      0.15 = coord(3/20)
    
    Footnote
    Zugleich Dissertation an der Universität Saarbrücken
  9. O'Donnell, R.; Smeaton, A.F.: ¬A linguistic approach to information retrieval (1996) 0.00
    0.0016697772 = product of:
      0.016697772 = sum of:
        0.0049945856 = weight(_text_:in in 2575) [ClassicSimilarity], result of:
          0.0049945856 = score(doc=2575,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.12752387 = fieldWeight in 2575, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2575)
        0.011703186 = product of:
          0.023406371 = sum of:
            0.023406371 = weight(_text_:22 in 2575) [ClassicSimilarity], result of:
              0.023406371 = score(doc=2575,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.23214069 = fieldWeight in 2575, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2575)
          0.5 = coord(1/2)
      0.1 = coord(2/20)
    
    Abstract
    An important aspect of information retrieval systems is domain independence, where the subject of the information is not restricted to certain domains of knowledge. This should be able to represent any topic and although the text representation does not involve any semantic knowledge, lexical and syntactic analysis of the text allows the representation to remain domain independent. Reports research at Dublin City University, Ireland, which concentrates on the lexical and syntactic levels of natural language analysis and describes a domain independent automatic information retrieval system which accesses a very large database of newspaper text from the Wall Street Journal. The system represents the text in the form of syntax trees, and these trees are used in the matching process. Reports early results from the stuyd
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  10. Warner, A.J.: Quantitative and qualitative assessments of the impact of linguistic theory on information science (1991) 0.00
    0.0013653717 = product of:
      0.027307434 = sum of:
        0.027307434 = product of:
          0.054614868 = sum of:
            0.054614868 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
              0.054614868 = score(doc=29,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.5416616 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.05 = coord(1/20)
    
    Date
    6. 1.1999 10:22:45
  11. Storms, G.; VanMechelen, I.; DeBoeck, P.: Structural-analysis of the intension and extension of semantic concepts (1994) 0.00
    6.826859E-4 = product of:
      0.013653717 = sum of:
        0.013653717 = product of:
          0.027307434 = sum of:
            0.027307434 = weight(_text_:22 in 2574) [ClassicSimilarity], result of:
              0.027307434 = score(doc=2574,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.2708308 = fieldWeight in 2574, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2574)
          0.5 = coord(1/2)
      0.05 = coord(1/20)
    
    Date
    22. 7.2000 19:17:40
  12. Rasmussen, L.: Selected linguistic problems in indexing within the Canadian context (1992) 0.00
    5.097578E-4 = product of:
      0.010195156 = sum of:
        0.010195156 = weight(_text_:in in 1609) [ClassicSimilarity], result of:
          0.010195156 = score(doc=1609,freq=6.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.260307 = fieldWeight in 1609, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1609)
      0.05 = coord(1/20)
    
    Abstract
    Takes into account the linguistic characteristics of Canadian English and of Canadian French as well as the problem involved in bilingual indexing because of the trend in the English language towards nominalization
  13. Dahl, V.: What the study of language can contribute to AI (1993) 0.00
    4.70894E-4 = product of:
      0.00941788 = sum of:
        0.00941788 = weight(_text_:in in 5098) [ClassicSimilarity], result of:
          0.00941788 = score(doc=5098,freq=8.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.24046129 = fieldWeight in 5098, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5098)
      0.05 = coord(1/20)
    
    Abstract
    Examines areas in which linguistics in particular and the study of language in general have provided useful insight into specific artificial intelligence areas besides the computational linguistics one. Discusses studies in these areas and argues that these links should be further and more deliberately explored since they have changes of leading the way towards a fruitful integration between the formal and humanistic sciences
  14. Johnson, F.C.; Paice, C.D.; Black, W.J.; Neal, A.P.: ¬The application of linguistic processing to automatic abstract generation (1993) 0.00
    4.1621542E-4 = product of:
      0.008324308 = sum of:
        0.008324308 = weight(_text_:in in 2290) [ClassicSimilarity], result of:
          0.008324308 = score(doc=2290,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.21253976 = fieldWeight in 2290, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=2290)
      0.05 = coord(1/20)
    
    Footnote
    Wiederabgedruckt in: Readings in information retrieval. Ed.: K. Sparck Jones u. P. Willett. San Francisco: Morgan Kaufmann 1997. S.538-552.
  15. Suominen, V.: Linguistic / semiotic conditions of information retrieval / documentation in the light of a sausurean conception of language : 'organising knowledge' or 'communication concerning documents'? (1998) 0.00
    3.9485664E-4 = product of:
      0.007897133 = sum of:
        0.007897133 = weight(_text_:in in 81) [ClassicSimilarity], result of:
          0.007897133 = score(doc=81,freq=10.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.20163295 = fieldWeight in 81, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=81)
      0.05 = coord(1/20)
    
    Abstract
    Argumentation consists of representation of the basic structuralist concepts of language/semiotic as a two-level form, as a form of expression and here especially form of content, and of application of these concepts to the phenomena of the representation of the contents of documents. On the basis of argumentation the paper questions the notion of "organizing knowledge", is it, or in what sense it is possible to organize knowledge. The paper bings out some reservations to viewing content representation as organizing knowledge in a strong sense and suggests that instead could be used a notion of (meta)documentation, characterized as communication concerning documents
    Series
    Advances in knowledge organization; vol.6
    Source
    Structures and relations in knowledge organization: Proceedings of the 5th International ISKO-Conference, Lille, 25.-29.8.1998. Ed.: W. Mustafa el Hadi et al
  16. Molina, M.P.: Interdisciplinary approaches to the concept and practice of written documentary content analysis (WTDCA) (1994) 0.00
    3.5683042E-4 = product of:
      0.0071366085 = sum of:
        0.0071366085 = weight(_text_:in in 6147) [ClassicSimilarity], result of:
          0.0071366085 = score(doc=6147,freq=6.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.1822149 = fieldWeight in 6147, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6147)
      0.05 = coord(1/20)
    
    Abstract
    Content analysis, restricted within the limits of written textual documents (WTDCA), is a field which is greatly in need of extensive interdisciplinary research. This would clarify certain concepts, especially those concerned with 'text', as a new central nucleus of semiotic research, and 'content', or the informative power of text. The objective reality (syntax) of the written document should be, in the cognitve process that all content analysis entails, interpreted (semantically and pragmatically) in an intersubjective manner with regard to the context, the analyst's knowledge base and the documentary objectives. The contributions of sociolinguistics (textual), logic (formal) and psychology (cognitive) are fundamental to the conduct of these activities. The criteria used to validate the results obtained complete the necessary conceptual reference panorama
  17. Lerat, P.: ¬Les langues spécialisées : linguistique nouvelle (1995) 0.00
    3.531705E-4 = product of:
      0.00706341 = sum of:
        0.00706341 = weight(_text_:in in 2630) [ClassicSimilarity], result of:
          0.00706341 = score(doc=2630,freq=2.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.18034597 = fieldWeight in 2630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=2630)
      0.05 = coord(1/20)
    
    Footnote
    Rez. in: Knowledge organization 23(1996) no.2, S.115-116 (H. Leclerq)
  18. Beardon, C.; Lumsden, D.; Holmes, G.: Natural language and computational linguistics (1991) 0.00
    3.531705E-4 = product of:
      0.00706341 = sum of:
        0.00706341 = weight(_text_:in in 645) [ClassicSimilarity], result of:
          0.00706341 = score(doc=645,freq=2.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.18034597 = fieldWeight in 645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=645)
      0.05 = coord(1/20)
    
    Series
    Ellis Horwood series in computers and their applications
  19. Pandey, R.C.: Information retrieval systems : a linguistic approach (1997) 0.00
    3.3297235E-4 = product of:
      0.006659447 = sum of:
        0.006659447 = weight(_text_:in in 133) [ClassicSimilarity], result of:
          0.006659447 = score(doc=133,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.17003182 = fieldWeight in 133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=133)
      0.05 = coord(1/20)
    
    Abstract
    Describes correspondence between linguistics and information retrieval. Notes relevant ideas of linguistics which are useful for information retrieval, particularly at the levels of semantics and syntax. Demonstrates that the conceptual model of Ranganathan based on canons, postulates and pronciples contains the principles expressed by other scholars in the field of information retrieval. Implements Ranganathan's conceptual models in information retrieval tools, using PRECIS as an example. Concludes the Ranganathan models contain all the germinal ideas to meet the challenges of modern technology
  20. Amac, T.: Linguistic context analysis : a new approach to communication evaluation (1997) 0.00
    2.497293E-4 = product of:
      0.0049945856 = sum of:
        0.0049945856 = weight(_text_:in in 2576) [ClassicSimilarity], result of:
          0.0049945856 = score(doc=2576,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.12752387 = fieldWeight in 2576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2576)
      0.05 = coord(1/20)
    
    Abstract
    Argues that the integration of computational psycholinguistics can improve corporate communication, and thus become a new strategic tool. An electronic dictionary was created of basic, neutral and negative connotations for nouns, verbs and adjectives appearing in press releases and other communication media, which can be updated with client specific words. The focus on negative messages has the objective of detecting who, why and how publics are criticized, to learn from the vocabulary of opinion leaders and to improve issues management proactively. Suggests a new form of analysis called 'computational linguistic context analysis' (CLCA) by analyzing nominal groups of negative words, rather than monitoring content analysis in the traditional way. Concludes that CLCA can be used to analyze large quantities of press cuttings about a company and could, theoretically, be used to analyze the structure, language and style of a particular journalist to whom it is planned to send a press release or article

Languages

Types

Classifications