Search (16 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Computerlinguistik"
  • × year_i:[1990 TO 2000}
  1. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.01
    0.006490487 = product of:
      0.025961949 = sum of:
        0.025961949 = product of:
          0.077885844 = sum of:
            0.077885844 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.077885844 = score(doc=2140,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    4.11.1998 14:30:29
  2. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.00
    0.0049935225 = product of:
      0.01997409 = sum of:
        0.01997409 = product of:
          0.05992227 = sum of:
            0.05992227 = weight(_text_:eine in 5356) [ClassicSimilarity], result of:
              0.05992227 = score(doc=5356,freq=8.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.54544014 = fieldWeight in 5356, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5356)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  3. Valnion, B.D.: Sprache - elektronisch analysiert : Münchener Wissenschaftler kreieren eine Wörterdatenbank für rasche Recherchen und automatische Übersetzungen (1994) 0.00
    0.0049935225 = product of:
      0.01997409 = sum of:
        0.01997409 = product of:
          0.05992227 = sum of:
            0.05992227 = weight(_text_:eine in 9) [ClassicSimilarity], result of:
              0.05992227 = score(doc=9,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.54544014 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.125 = fieldNorm(doc=9)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
  4. Zue, V.: Dein Computer spricht mir dir (1999) 0.00
    0.0048678652 = product of:
      0.019471461 = sum of:
        0.019471461 = product of:
          0.05841438 = sum of:
            0.05841438 = weight(_text_:29 in 4244) [ClassicSimilarity], result of:
              0.05841438 = score(doc=4244,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.46638384 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    31.12.1996 19:29:41
  5. Lezius, W.; Rapp, R.; Wettler, M.: ¬A morphology-system and part-of-speech tagger for German (1996) 0.00
    0.004020063 = product of:
      0.016080253 = sum of:
        0.016080253 = product of:
          0.04824076 = sum of:
            0.04824076 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.04824076 = score(doc=1693,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.38690117 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1693)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    22. 3.2015 9:37:18
  6. Bernhard, U.; Mistrik, I.: Rechnergestützte Übersetzung : Einführung und Technik (1998) 0.00
    0.0032433884 = product of:
      0.0129735535 = sum of:
        0.0129735535 = product of:
          0.03892066 = sum of:
            0.03892066 = weight(_text_:eine in 5343) [ClassicSimilarity], result of:
              0.03892066 = score(doc=5343,freq=6.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.3542738 = fieldWeight in 5343, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5343)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Softwaresysteme zur maschinellen und maschinengestützten Übersetzung natürlicher Sprachen erfuhren in den letzten 2 bis 3 Jahren eine erstaunliche Entwicklung. Fortschritte in der Datenbanktechnik, neue leistungsfähigere computerlinguistische Ansätze und eine grundlegende Verbesserung des Preis / Leistungsverhältnisses bei Ein- und Mehrplatz-Hard- und Software machen heute bisher noch nie dagewesene Lösungen möglich, die zu einem Bruchteil der früheren Kosten angeschafft und betrieben werden können. Als Folge diese Entwicklung drängte eine Vielzahl neuer Produkte auf den Übersetzungssoftware-Markt, was - obwohl generell zu begrüßen - für potentielle neue Benutzer die Auswahl des für ihre Anwendungsumgebung geeigneten Produkts erschwert. Vor diesem Hintergrund stellt der vorliegende Artikel die Technik der maschinellen und maschinengestützten Übersetzung dar. Es werden Richtlinien vorgestellt, die potentiellen neuen Benutzern der MÜ-Technik die Auswahl eines geeigneten Werkzeugs erleichtern sollen. Im Anhang werden einige Übersetzungssoftware-Produkte kurz vorgestellt
  7. Ruge, G.: Sprache und Computer : Wortbedeutung und Termassoziation. Methoden zur automatischen semantischen Klassifikation (1995) 0.00
    0.0032160503 = product of:
      0.012864201 = sum of:
        0.012864201 = product of:
          0.038592603 = sum of:
            0.038592603 = weight(_text_:22 in 1534) [ClassicSimilarity], result of:
              0.038592603 = score(doc=1534,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.30952093 = fieldWeight in 1534, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1534)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Knowledge organization 22(1995) no.3/4, S.182-184 (M.T. Rolland)
  8. Stock, M.; Stock, W.G.: Literaturnachweis- und Terminologiedatenbank : die Erfassung von Fachliteratur und Fachterminologie eines Fachgebiets in einer kombinierten Datenbank (1991) 0.00
    0.0031209518 = product of:
      0.012483807 = sum of:
        0.012483807 = product of:
          0.03745142 = sum of:
            0.03745142 = weight(_text_:eine in 3411) [ClassicSimilarity], result of:
              0.03745142 = score(doc=3411,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.3409001 = fieldWeight in 3411, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3411)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    In wissenschaftlichen Spezialgebieten kann über den Aufbau einer Literaturdatenbank gleichzeitig eine Terminologiedatenbank mit erstellt werden. Als Dokumentationsmethode eignet sich die Textwortmethode mit Übersetzungrelation. Mit dem Softwarepaket LBase aufgebaute Druckbildprogramme gestatten die Ausgabe von Bibliographien und Wörterbüchern
  9. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.00
    0.0030895844 = product of:
      0.012358338 = sum of:
        0.012358338 = product of:
          0.037075013 = sum of:
            0.037075013 = weight(_text_:eine in 4099) [ClassicSimilarity], result of:
              0.037075013 = score(doc=4099,freq=4.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.33747387 = fieldWeight in 4099, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  10. Wittek, B.R.: Schöne neue Abfragewelt : Datenbank-Zugangssysteme auf der Basis natürlicher Sprache (1994) 0.00
    0.0024967613 = product of:
      0.009987045 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 8791) [ClassicSimilarity], result of:
              0.029961135 = score(doc=8791,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 8791, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=8791)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Kann die deutsche Sprache als Datenbankabfragesprache eingesetzt werden? Seit Jahrzehnten wurde diese Frage verneint, weil klare Kriterien für die Formalisierung natürlicher Sprache und Werkzeuge für eine kostengünstige Durchführung fehlten. Allerdings darf diese Frage wieder gestellt werden, seitdem Techniken für deren Formalisierung zunehmend zur Verfügung stehen. Dieser Artikel beschreibt, was auf dem Gebiet der natürlichen Sprache als Basis für die Datenbankabfrage heute schon möglich ist
  11. Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997) 0.00
    0.0024967613 = product of:
      0.009987045 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 467) [ClassicSimilarity], result of:
              0.029961135 = score(doc=467,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 467, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=467)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
  12. Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997) 0.00
    0.0024967613 = product of:
      0.009987045 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 468) [ClassicSimilarity], result of:
              0.029961135 = score(doc=468,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 468, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=468)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
  13. Lehrndorfer, A.: Kontrolliertes Deutsch : Linguistische und sprachpsychologische Leitlinien für eine (maschinell) kontrollierte Sprache in der Technischen Dokumentation (1996) 0.00
    0.0024967613 = product of:
      0.009987045 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 2039) [ClassicSimilarity], result of:
              0.029961135 = score(doc=2039,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 2039, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2039)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
  14. Ladewig, C.: 'Information Retrieval ohne Linguistik?' : Erwiderung zu dem Artikel von Gerda Ruge und Sebastian Goeser, Nfd 49(1998) H.6, S.361-369 (1998) 0.00
    0.0024967613 = product of:
      0.009987045 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 2513) [ClassicSimilarity], result of:
              0.029961135 = score(doc=2513,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 2513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2513)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Es wird eine Gegendarstellung zu Untersuchungen der Effektivität von Information Retrieval Systemen anhand der Rechercheparameter Precision und Recall gegeben. Grundlage dieser Untersuchungen sind Relevanzbestimmungen oder -einschätzungen, deren Widersprüchlichkeit geklärt wird und es werden Lösungen angeboten
  15. Larroche-Boutet, V.; Pöhl, K.: ¬Das Nominalsyntagna : über die Nutzbarmachung eines logico-semantischen Konzeptes für dokumentarische Fragestellungen (1993) 0.00
    0.0022068461 = product of:
      0.008827385 = sum of:
        0.008827385 = product of:
          0.026482154 = sum of:
            0.026482154 = weight(_text_:eine in 5282) [ClassicSimilarity], result of:
              0.026482154 = score(doc=5282,freq=4.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.24105278 = fieldWeight in 5282, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5282)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Am Anfang nachfolgender Ausführungen werden die für die Indexierung großer textmengen notwendigen strategischen Entscheidungen aufgezeigt: es müssen sowohl das Indexierungsverfahren (menschliche oder automatische Indexierung) als auch die Indexierungssparche (freie, kontrollierte oder natürliche Sprache) ausgewählt werden. Hierbei hat sich die Forschungsgruppe SYDO-LYON für natürlichsprachige automatische Vollindexierung entschieden. Auf der Grundlage der Unterscheidung zwischen prädikativen und referentiellen Textteilen wird d as Nominalsyntagma als kleinste referentielle Texteinheit definiert, dann das für die Konstituierung eines Nominalsyntagmas entscheidende Phänomen der Aktualisierung erläutert und schließlich auf die morphologischen Mittel zur Erkennung des Nominalsyntagmas hingewiesen. Alle Nominalsyntagma eines Textes werden als dessen potentielle Deskriptoren extrahiert, und Hilfsmittel für die Benutzer einer mit diesem Indexierungsverfahren arbeitenden Datenbank werden vorgestellt. Außerdem wird der begriff der Anapher (d.h. die Wiederaufnahme von Nominalsyntagmen durch Pronomen) kurz definiert, ihre Anwendung als Mittel zur Gewichtung des Deskriptorterme (durch Zählung ihrer Häufigkeit im text) aufgezeigt und morphologische uns syntaktische Regeln zur automatischen Bestimmung des von einem anaphorischen Pronomen aufgenommenen Nominalsyntagmas aufgestellt. Bevor abschließend Ziele und Grenzen der Arbeit diskutiert werden, wird noch auf einen Unterschied zwischen Nominalsyntagma und Deskriptorterm hingewiesen: das Nonimalsyntagma verweist auf ein Objekt, das ein Einzelobjekt oder eine Klasse sein kann, der Deskriptorterm verweist immer auf eine Klasse
  16. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.00
    0.0020100316 = product of:
      0.008040126 = sum of:
        0.008040126 = product of:
          0.02412038 = sum of:
            0.02412038 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.02412038 = score(doc=190,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    14. 4.2007 10:04:22

Types