Search (20 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Computerlinguistik"
  • × year_i:[1990 TO 2000}
  1. Stock, W.G.: Natürlichsprachige Suche - more like this! : Lexis-Nexis' Freestyle (1998) 0.05
    0.054008003 = product of:
      0.081012 = sum of:
        0.063704416 = weight(_text_:im in 2523) [ClassicSimilarity], result of:
          0.063704416 = score(doc=2523,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.44168535 = fieldWeight in 2523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=2523)
        0.017307585 = product of:
          0.051922753 = sum of:
            0.051922753 = weight(_text_:online in 2523) [ClassicSimilarity], result of:
              0.051922753 = score(doc=2523,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33531237 = fieldWeight in 2523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2523)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Insbesondere durch die Suchmaschinen im Internet wurde die Aufmerksamkeit der Information Professionals auf Retrievalmöglichkeiten jenseits der Booleschen Operatoren gelenkt. Auch die kommerziellen Online-Archive entwickelten in den letzten Jahren natürlichsprachige Suchoptionen. Lexis-Nexis erhielt im Laufe des Jahres 1998 2 Patente für Module automatischer Indexierung erteilt.
  2. Ruge, G.; Goeser, S.: Information Retrieval ohne Linguistik (1998) 0.03
    0.029930595 = product of:
      0.04489589 = sum of:
        0.027027493 = weight(_text_:im in 2528) [ClassicSimilarity], result of:
          0.027027493 = score(doc=2528,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 2528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2528)
        0.017868398 = product of:
          0.05360519 = sum of:
            0.05360519 = weight(_text_:retrieval in 2528) [ClassicSimilarity], result of:
              0.05360519 = score(doc=2528,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.34732026 = fieldWeight in 2528, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2528)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Natürlicherweise sollte man erwarten, daß linguistische Textanalyseverfahren die Effektivität und Benutzerfreundlichkeit von Information Retrieval Systemen verbessern, da sowohl Dokumente als auch Suchanfragen die interessierenden Inhalte linguistisch enkodieren. Ein Retrievalabgleich auf der Ebene der linguistischen Inhaltsdarstellung müßte demzufolge zu besseren Retrievalsystemen führen als ein Abgleich auf Wort- oder gar Zeichenebene. Tatsächlich aber ist immer noch weitgehend unklar, inwieweit linguistische Textanalyseverfahren Retrievalsysteme verbessern können. Evaluationen von Retrievalsystemen mit linguistischen Komponenten führen nach wie vor zu unterschiedlichen, teils gegenläufigen Ergebnissen, obwohl die dazu erforderliche Computerlinguistik große Fortschritte gemacht hat. Wir gehen der Frage nach, wie es zu diesen kontraintuitiven Ergenissen kommt. Dazu wird der Stand der Kunst im linguistischen IR zusammengefaßt, so daß die Ergebnisse anhand des Vergleich verschiedener Evaluierungen diskutiert werden können.
    Footnote
    Vgl. auch die Erwiderung: Ladewig, C.: 'Information Retrieval ohne Linguistik?' in: nfd 49(1998) H.8, S.476-478
  3. Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992) 0.03
    0.02904519 = product of:
      0.043567784 = sum of:
        0.031532075 = weight(_text_:im in 2571) [ClassicSimilarity], result of:
          0.031532075 = score(doc=2571,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
        0.012035711 = product of:
          0.03610713 = sum of:
            0.03610713 = weight(_text_:retrieval in 2571) [ClassicSimilarity], result of:
              0.03610713 = score(doc=2571,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23394634 = fieldWeight in 2571, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2571)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    In diesem Aufsatz beschreiben wir ein System zur Analyse von Kurzartikeln. Das System arbeitet halbautomatisch. Das heißt, zunächst wird der Artikel vom System analysiert und dann dem benutzer zur Nachberarbeitung vorgelegt. Die so gewonnene Information wird in einem Datenbankeintrag abgelegt. Über die Datenbank - in dBase IV implementiert - sind dann Abfragen und Zugriffe auf die Originaltexte effizient möglich. Der Kern dieses Aufsatzes betrifft die halbautomatische Analyse. Wir beschreiben unser Verfahren für parametrisiertes Pattern Matching sowie linguistische Heuristiken zur Ermittlung von Nominalphrasen und Präpositionalphrasen. Das System wurde für den praktischen Einsatz im Bonner Büro des 'Forums InformatikerInnen Für Frieden und gesellschaftliche Verantwortung e.V. (FIFF)' entwickelt
  4. Rolland, M.T.: ¬Ein semantikorientierter Ansatz im Bereich der Sprachverarbeitung (1995) 0.03
    0.025481766 = product of:
      0.0764453 = sum of:
        0.0764453 = weight(_text_:im in 4445) [ClassicSimilarity], result of:
          0.0764453 = score(doc=4445,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.53002244 = fieldWeight in 4445, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=4445)
      0.33333334 = coord(1/3)
    
    Source
    Angewandte Computerlinguistik: Vorträge im Rahmen der Jahrestagung 1995 der Gesellschaft für Linguistische Datenverarbeitung (GLDV) e.V., Regensburg, 30.-31.3.1995
  5. Rolland, M.T.: Sachgebietsstandardisierung im Bereich der Informationswissenschaft (1996) 0.02
    0.021021385 = product of:
      0.06306415 = sum of:
        0.06306415 = weight(_text_:im in 5271) [ClassicSimilarity], result of:
          0.06306415 = score(doc=5271,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.4372462 = fieldWeight in 5271, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.109375 = fieldNorm(doc=5271)
      0.33333334 = coord(1/3)
    
  6. Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997) 0.02
    0.020805776 = product of:
      0.06241733 = sum of:
        0.06241733 = weight(_text_:im in 467) [ClassicSimilarity], result of:
          0.06241733 = score(doc=467,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.43276152 = fieldWeight in 467, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=467)
      0.33333334 = coord(1/3)
    
    Abstract
    Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
  7. Rolland, M.T.: Sprachverarbeitung ohne Parsing? (1997) 0.02
    0.020805776 = product of:
      0.06241733 = sum of:
        0.06241733 = weight(_text_:im in 468) [ClassicSimilarity], result of:
          0.06241733 = score(doc=468,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.43276152 = fieldWeight in 468, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=468)
      0.33333334 = coord(1/3)
    
    Abstract
    Als entscheidendes Verfahrenshilfsmittel im Bereich der Sprachverarbeitung werden Parser verwendet. Im folgenden werden grundlegende, auf Parsern absierende Verfahrensmöglichkeiten skizziert und kritisch beleuchtet, indem sie mit neuen, auf der Basis der Methode der Logotechnik möglich werdenden logotechnischen Verfahren verglichen werden. Es wird verdeutlicht, daß auf der Basis der 'tatsächlichen' Grammatik einer Sprache eine vereinfachte Vorgehensweise möglich ist und exakte Ergebnisse im Bereich der Verarbeitung der natürlichen Sprache in spezifischen Anwendungsgebieten erzielt werden können
  8. Rolland, M.T.: Grammatikstandardisierung im Bereich der Sprachverarbeitung (1996) 0.02
    0.016987845 = product of:
      0.050963532 = sum of:
        0.050963532 = weight(_text_:im in 5356) [ClassicSimilarity], result of:
          0.050963532 = score(doc=5356,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.35334828 = fieldWeight in 5356, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=5356)
      0.33333334 = coord(1/3)
    
    Abstract
    Jede Sprache hat ihre eigene Struktur und weist damit ihre spezifische, von der Semantik her bedingte Grammatik auf. Es wird verdeutlicht, in welcher Weise für eine Sprache, hier für die deutsche Sprache, eine umfassende Grammatik erstellt werden kann. Die prinzipiellen Verfahrensweisen gelten auch für andere Sprachen. Eine solche Grammatik stellt keine Teilgrammatik dar, sondern macht die gesamt in einer Sprache enthaltene Struktur explizit. Daher ist sie im Bereich der Sprachverarbeitung als einheitliche Grundlage in den verschiedensten Sachgebieten anwendbar. Eine Grammatik dieser Art kann insbesondere zum Aufbau von Dialogsystemen und maschinellen Übersetzungssystemen dienen
  9. Rolland, M.T.: Logotechnik als Grundlage einer vollautomatischen Sprachverarbeitung (1995) 0.01
    0.01201222 = product of:
      0.03603666 = sum of:
        0.03603666 = weight(_text_:im in 1313) [ClassicSimilarity], result of:
          0.03603666 = score(doc=1313,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 1313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1313)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit Hilfe der Logotechnik, der rein semantikorientierten Methoden der Sprachverarbeitung, ist es möglich, die Sprache in ihren Regeln und Aufbaugesetzmäßigkeiten zu durchschauen und damit einer vollautomatischen Verarbeitung zugänglich zu machen. Semantik meint die geistige Seite der Sprache, die die Syntax impliziert. Im Zentrum der Betrachtungen steht das Wort, sein Inhalt und die von diesem bedingten Sprachstrukturen. Auf der Basis der Erkenntnisse vom Aufbau der Sprache ist die Konzeption eines Dialogsystems, und zwar eines Systems zur Wissensabfrage, dargestellt. Abschließend erfolgen Hinweise auf weitere mögliche Anwendungen, von denen die maschinelle Übersetzung von zentraler Wichtigkeit ist
  10. Rapp, R.: Text-Detektor : Fehlertolerantes Retrieval ganz einfach (1997) 0.01
    0.009170066 = product of:
      0.027510196 = sum of:
        0.027510196 = product of:
          0.08253059 = sum of:
            0.08253059 = weight(_text_:retrieval in 3918) [ClassicSimilarity], result of:
              0.08253059 = score(doc=3918,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5347345 = fieldWeight in 3918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=3918)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  11. Bernhard, U.; Mistrik, I.: Rechnergestützte Übersetzung : Einführung und Technik (1998) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 5343) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5343,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5343)
      0.33333334 = coord(1/3)
    
    Abstract
    Softwaresysteme zur maschinellen und maschinengestützten Übersetzung natürlicher Sprachen erfuhren in den letzten 2 bis 3 Jahren eine erstaunliche Entwicklung. Fortschritte in der Datenbanktechnik, neue leistungsfähigere computerlinguistische Ansätze und eine grundlegende Verbesserung des Preis / Leistungsverhältnisses bei Ein- und Mehrplatz-Hard- und Software machen heute bisher noch nie dagewesene Lösungen möglich, die zu einem Bruchteil der früheren Kosten angeschafft und betrieben werden können. Als Folge diese Entwicklung drängte eine Vielzahl neuer Produkte auf den Übersetzungssoftware-Markt, was - obwohl generell zu begrüßen - für potentielle neue Benutzer die Auswahl des für ihre Anwendungsumgebung geeigneten Produkts erschwert. Vor diesem Hintergrund stellt der vorliegende Artikel die Technik der maschinellen und maschinengestützten Übersetzung dar. Es werden Richtlinien vorgestellt, die potentiellen neuen Benutzern der MÜ-Technik die Auswahl eines geeigneten Werkzeugs erleichtern sollen. Im Anhang werden einige Übersetzungssoftware-Produkte kurz vorgestellt
  12. Rahmstorf, G.: Semantisches Information Retrieval (1994) 0.01
    0.008023808 = product of:
      0.024071421 = sum of:
        0.024071421 = product of:
          0.07221426 = sum of:
            0.07221426 = weight(_text_:retrieval in 8879) [ClassicSimilarity], result of:
              0.07221426 = score(doc=8879,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46789268 = fieldWeight in 8879, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8879)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  13. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.01
    0.008023808 = product of:
      0.024071421 = sum of:
        0.024071421 = product of:
          0.07221426 = sum of:
            0.07221426 = weight(_text_:retrieval in 5270) [ClassicSimilarity], result of:
              0.07221426 = score(doc=5270,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46789268 = fieldWeight in 5270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5270)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  14. Lezius, W.; Rapp, R.; Wettler, M.: ¬A morphology-system and part-of-speech tagger for German (1996) 0.01
    0.007680971 = product of:
      0.023042914 = sum of:
        0.023042914 = product of:
          0.06912874 = sum of:
            0.06912874 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.06912874 = score(doc=1693,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.38690117 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1693)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2015 9:37:18
  15. Larroche-Boutet, V.; Pöhl, K.: ¬Das Nominalsyntagna : über die Nutzbarmachung eines logico-semantischen Konzeptes für dokumentarische Fragestellungen (1993) 0.01
    0.007507637 = product of:
      0.022522911 = sum of:
        0.022522911 = weight(_text_:im in 5282) [ClassicSimilarity], result of:
          0.022522911 = score(doc=5282,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 5282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
      0.33333334 = coord(1/3)
    
    Abstract
    Am Anfang nachfolgender Ausführungen werden die für die Indexierung großer textmengen notwendigen strategischen Entscheidungen aufgezeigt: es müssen sowohl das Indexierungsverfahren (menschliche oder automatische Indexierung) als auch die Indexierungssparche (freie, kontrollierte oder natürliche Sprache) ausgewählt werden. Hierbei hat sich die Forschungsgruppe SYDO-LYON für natürlichsprachige automatische Vollindexierung entschieden. Auf der Grundlage der Unterscheidung zwischen prädikativen und referentiellen Textteilen wird d as Nominalsyntagma als kleinste referentielle Texteinheit definiert, dann das für die Konstituierung eines Nominalsyntagmas entscheidende Phänomen der Aktualisierung erläutert und schließlich auf die morphologischen Mittel zur Erkennung des Nominalsyntagmas hingewiesen. Alle Nominalsyntagma eines Textes werden als dessen potentielle Deskriptoren extrahiert, und Hilfsmittel für die Benutzer einer mit diesem Indexierungsverfahren arbeitenden Datenbank werden vorgestellt. Außerdem wird der begriff der Anapher (d.h. die Wiederaufnahme von Nominalsyntagmen durch Pronomen) kurz definiert, ihre Anwendung als Mittel zur Gewichtung des Deskriptorterme (durch Zählung ihrer Häufigkeit im text) aufgezeigt und morphologische uns syntaktische Regeln zur automatischen Bestimmung des von einem anaphorischen Pronomen aufgenommenen Nominalsyntagmas aufgestellt. Bevor abschließend Ziele und Grenzen der Arbeit diskutiert werden, wird noch auf einen Unterschied zwischen Nominalsyntagma und Deskriptorterm hingewiesen: das Nonimalsyntagma verweist auf ein Objekt, das ein Einzelobjekt oder eine Klasse sein kann, der Deskriptorterm verweist immer auf eine Klasse
  16. Ohly, H.P.; Binder, G.: Semantisches Retrieval mit sozialwissenschaftlichen Dokumenten : erste Erfahrungen mit RELATIO/IR (1994) 0.01
    0.006877549 = product of:
      0.020632647 = sum of:
        0.020632647 = product of:
          0.06189794 = sum of:
            0.06189794 = weight(_text_:retrieval in 346) [ClassicSimilarity], result of:
              0.06189794 = score(doc=346,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40105087 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=346)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  17. Göpferich, S.: Von der Terminographie zur Textographie : computergestützte Verwaltung textsortenspezifischer Textversatzstücke (1995) 0.01
    0.0064842156 = product of:
      0.019452646 = sum of:
        0.019452646 = product of:
          0.058357935 = sum of:
            0.058357935 = weight(_text_:retrieval in 4567) [ClassicSimilarity], result of:
              0.058357935 = score(doc=4567,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37811437 = fieldWeight in 4567, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4567)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    The paper presents 2 different types of computer-based retrieval systems for text-type specific information ranging from phrases to whole standardized passages. The first part describes the structure of a full-text database for text prototypes, the second part, ways of storing text-type specific phrases and passages an a combined terminological and textographic database. The program used to illustrate this second kind of retrieval system is the terminology system CATS, which the Terminology Centre at the Faculty of Applied Linguistics and Cultural Studies of the University of Mainz in Germersheim uses for its FASTERM database
  18. Ladewig, C.: 'Information Retrieval ohne Linguistik?' : Erwiderung zu dem Artikel von Gerda Ruge und Sebastian Goeser, Nfd 49(1998) H.6, S.361-369 (1998) 0.01
    0.0064842156 = product of:
      0.019452646 = sum of:
        0.019452646 = product of:
          0.058357935 = sum of:
            0.058357935 = weight(_text_:retrieval in 2513) [ClassicSimilarity], result of:
              0.058357935 = score(doc=2513,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37811437 = fieldWeight in 2513, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2513)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Es wird eine Gegendarstellung zu Untersuchungen der Effektivität von Information Retrieval Systemen anhand der Rechercheparameter Precision und Recall gegeben. Grundlage dieser Untersuchungen sind Relevanzbestimmungen oder -einschätzungen, deren Widersprüchlichkeit geklärt wird und es werden Lösungen angeboten
  19. Ruge, G.: Sprache und Computer : Wortbedeutung und Termassoziation. Methoden zur automatischen semantischen Klassifikation (1995) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 1534) [ClassicSimilarity], result of:
              0.055302992 = score(doc=1534,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 1534, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1534)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Knowledge organization 22(1995) no.3/4, S.182-184 (M.T. Rolland)
  20. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.00
    0.0038404856 = product of:
      0.011521457 = sum of:
        0.011521457 = product of:
          0.03456437 = sum of:
            0.03456437 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.03456437 = score(doc=190,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    14. 4.2007 10:04:22

Types