Search (241 results, page 1 of 13)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.19
    0.18676454 = product of:
      0.5229407 = sum of:
        0.05098919 = product of:
          0.15296756 = sum of:
            0.15296756 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.15296756 = score(doc=562,freq=2.0), product of:
                0.27217552 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0321037 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.15296756 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15296756 = score(doc=562,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15296756 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15296756 = score(doc=562,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15296756 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15296756 = score(doc=562,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.013048824 = product of:
          0.026097648 = sum of:
            0.026097648 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.026097648 = score(doc=562,freq=2.0), product of:
                0.112421684 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0321037 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.35714287 = coord(5/14)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.15
    0.1456834 = product of:
      0.50989187 = sum of:
        0.05098919 = product of:
          0.15296756 = sum of:
            0.15296756 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.15296756 = score(doc=862,freq=2.0), product of:
                0.27217552 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0321037 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.15296756 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15296756 = score(doc=862,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15296756 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15296756 = score(doc=862,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.15296756 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.15296756 = score(doc=862,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.2857143 = coord(4/14)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.13
    0.13484329 = product of:
      0.47195148 = sum of:
        0.15296756 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15296756 = score(doc=563,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15296756 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15296756 = score(doc=563,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.15296756 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15296756 = score(doc=563,freq=2.0), product of:
            0.27217552 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0321037 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.013048824 = product of:
          0.026097648 = sum of:
            0.026097648 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.026097648 = score(doc=563,freq=2.0), product of:
                0.112421684 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0321037 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.06
    0.064141534 = product of:
      0.29932716 = sum of:
        0.14081435 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.14081435 = score(doc=3413,freq=4.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.14081435 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.14081435 = score(doc=3413,freq=4.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.01769847 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.01769847 = score(doc=3413,freq=2.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.21428572 = coord(3/14)
    
    Field
    Philosophie
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  5. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.06
    0.056306478 = product of:
      0.26276356 = sum of:
        0.112651475 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.112651475 = score(doc=4891,freq=4.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.112651475 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.112651475 = score(doc=4891,freq=4.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.037460603 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.037460603 = score(doc=4891,freq=14.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.21428572 = coord(3/14)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  6. Stock, W.G.: Textwortmethode (2000) 0.05
    0.04646572 = product of:
      0.21684003 = sum of:
        0.09957078 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.09957078 = score(doc=3408,freq=2.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.09957078 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.09957078 = score(doc=3408,freq=2.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.01769847 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.01769847 = score(doc=3408,freq=2.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
      0.21428572 = coord(3/14)
    
    Field
    Philosophie
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  7. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.02
    0.020931788 = product of:
      0.1465225 = sum of:
        0.02770249 = weight(_text_:der in 5809) [ClassicSimilarity], result of:
          0.02770249 = score(doc=5809,freq=10.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.38630107 = fieldWeight in 5809, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.11882001 = weight(_text_:speziellen in 5809) [ClassicSimilarity], result of:
          0.11882001 = score(doc=5809,freq=2.0), product of:
            0.2220858 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0321037 = queryNorm
            0.5350185 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.14285715 = coord(2/14)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  8. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.018840147 = product of:
      0.13188103 = sum of:
        0.030035302 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.030035302 = score(doc=6386,freq=16.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.10184573 = weight(_text_:speziellen in 6386) [ClassicSimilarity], result of:
          0.10184573 = score(doc=6386,freq=2.0), product of:
            0.2220858 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0321037 = queryNorm
            0.4585873 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.14285715 = coord(2/14)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  9. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.02
    0.01868822 = product of:
      0.13081753 = sum of:
        0.111030035 = weight(_text_:spezielle in 1714) [ClassicSimilarity], result of:
          0.111030035 = score(doc=1714,freq=4.0), product of:
            0.21360074 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0321037 = queryNorm
            0.51980174 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.019787492 = weight(_text_:der in 1714) [ClassicSimilarity], result of:
          0.019787492 = score(doc=1714,freq=10.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.27592933 = fieldWeight in 1714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
      0.14285715 = coord(2/14)
    
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
  10. Zimmermann, H.H.: Maschinelle und Computergestützte Übersetzung (2004) 0.02
    0.016492896 = product of:
      0.11545027 = sum of:
        0.09421211 = weight(_text_:spezielle in 2943) [ClassicSimilarity], result of:
          0.09421211 = score(doc=2943,freq=2.0), product of:
            0.21360074 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0321037 = queryNorm
            0.44106638 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.021238165 = weight(_text_:der in 2943) [ClassicSimilarity], result of:
          0.021238165 = score(doc=2943,freq=8.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.29615843 = fieldWeight in 2943, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
      0.14285715 = coord(2/14)
    
    Abstract
    Unter Maschineller Übersetzung (Machine Translation, MT) wird im Folgenden die vollautomatische Übersetzung eines Textes in natürlicher Sprache in eine andere natürliche Sprache verstanden. Unter Human-Übersetzung (Human Translation, HT) wird die intellektuelle Übersetzung eines Textes mit oder ohne maschinelle lexikalische Hilfen mit oder ohne Textverarbeitung verstanden. Unter computergestützter bzw computerunterstützter Übersetzung (CAT) wird einerseits eine intellektuelle Übersetzung verstanden, die auf einer maschinellen Vorübersetzung/Rohübersetzung (MT) aufbaut, die nachfolgend intellektuell nachbereitet wird (Postedition); andererseits wird darunter eine intellektuelle Übersetzung verstanden, bei der vor oder während des intellektuellen Übersetzungsprozesses ein Translation Memory und/ oder eine Terminologie-Bank verwendet werden. Unter ICAT wird eine spezielle Variante von CAT verstanden, bei der ein Nutzer ohne (hinreichende) Kenntnis der Zielsprache bei einer Übersetzung aus seiner Muttersprache so unterstützt wird, dass das zielsprachige Äquivalent relativ fehlerfrei ist.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  11. Rahmstorf, G.: Wortmodell und Begriffssprache als Basis des semantischen Retrievals (2000) 0.02
    0.01632183 = product of:
      0.114252806 = sum of:
        0.09279455 = weight(_text_:systematische in 5484) [ClassicSimilarity], result of:
          0.09279455 = score(doc=5484,freq=2.0), product of:
            0.19626246 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0321037 = queryNorm
            0.47280845 = fieldWeight in 5484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5484)
        0.021458257 = weight(_text_:der in 5484) [ClassicSimilarity], result of:
          0.021458257 = score(doc=5484,freq=6.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.29922754 = fieldWeight in 5484, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5484)
      0.14285715 = coord(2/14)
    
    Abstract
    Der heutigen Retrievaltechnik wird das Projekt eines semantisch basierten Suchsystems gegenübergestellt. Es soll genauer und vollständiger arbeiten sowie systematische Zusammenhänge zwischen Themen unterstützen. Bei diesem Ansatz wird ein umfassendes Wörterbuch mit einer einfachen begrifflichen Darstellung der Wortbedeutungen benötigt. Das Wortmodell bildet Wort, Wortmerkmale, Lemma, Wortbedeutungen (Lesarten), Lesartenmerkmale und Begriffe ab. Begriffe sind formale Ausdrücke einer Begriffssprache. Entsprechend dieser Differenzierung wird Lenunaindexierung, Lesartenindexierung und Begriffsindexierung unterschieden. Begriffe werden mit dem Programm Concepto grafisch konstruiert und erfasst
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  12. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.016317291 = product of:
      0.11422104 = sum of:
        0.029349593 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.029349593 = score(doc=5863,freq=22.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.08487144 = weight(_text_:speziellen in 5863) [ClassicSimilarity], result of:
          0.08487144 = score(doc=5863,freq=2.0), product of:
            0.2220858 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0321037 = queryNorm
            0.38215607 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.14285715 = coord(2/14)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  13. Schmitz, K.-D.: Projektforschung und Infrastrukturen im Bereich der Terminologie : Wie kann die Wirtschaft davon profitieren? (2000) 0.02
    0.016159812 = product of:
      0.11311868 = sum of:
        0.07953819 = weight(_text_:systematische in 5568) [ClassicSimilarity], result of:
          0.07953819 = score(doc=5568,freq=2.0), product of:
            0.19626246 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0321037 = queryNorm
            0.40526438 = fieldWeight in 5568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=5568)
        0.03358049 = weight(_text_:der in 5568) [ClassicSimilarity], result of:
          0.03358049 = score(doc=5568,freq=20.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.46826762 = fieldWeight in 5568, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5568)
      0.14285715 = coord(2/14)
    
    Abstract
    In der heutigen Informationsgesellschaft bieten sich der Industrie neue Perspektiven für Kommunikation und Handel auf dem europäischen und internationalen Markt; beide Märkte sind von einer großen sprachlichen, kulturellen und gesellschaftlichen Vielfalt geprägt. Uni Nutzen aus diesen neuen Möglichkeiten zu ziehen und um weiterhin konkurrenzfähig zu bleiben, muß die Industrie spezifische und adäquate Lösungen zur Überwindung der Sprachbarrieren finden. Voraussetzung hierfür ist die genaue Definition, systematische Ordnung und exakte Benennung der Begriffe innerhalb der jeweiligen Fachgebiete, in der eigenen Sprache ebenso wie in den Fremdsprachen. Genau dies sind die Themenbereiche, mit dem sich die Terminologiewissenschaft und die praktische Temninologiearbeit beschäftigen. Die Ergebnisse der Terminologiearbeit im Unternehmen beeinflussen Konstruktion, Produktion, Einkauf, Marketing und Verkauf, Vertragswesen, technische Dokumentation und Übersetzung
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  14. Helbig, H.; Gnörlich, C.; Leveling, J.: Natürlichsprachlicher Zugang zu Informationsanbietern im Internet und zu lokalen Datenbanken (2000) 0.02
    0.015917022 = product of:
      0.11141915 = sum of:
        0.026547706 = weight(_text_:der in 5558) [ClassicSimilarity], result of:
          0.026547706 = score(doc=5558,freq=18.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.37019804 = fieldWeight in 5558, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
        0.08487144 = weight(_text_:speziellen in 5558) [ClassicSimilarity], result of:
          0.08487144 = score(doc=5558,freq=2.0), product of:
            0.2220858 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0321037 = queryNorm
            0.38215607 = fieldWeight in 5558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
      0.14285715 = coord(2/14)
    
    Abstract
    Die Schaffung eines natürlichsprachlichen Interfaces (NLI), (das einem Nutzer die Formulierung von Anfragen an Informationsanbieter in seiner Muttersprache erlaubt, stellt eine der interessantesten Herausforderungen im Bereich des Information-Retrieval und der Verarbeitung natürlicher Sprache dar. Dieser Beitrag beschreibt Methoden zur Obersetzung natürlichsprachlicher Anfragen in Ausdrücke formaler Retrievalsprachen sowohl für Informationsressourcen im Internet als auch für lokale Datenbanken. Die vorgestellten Methoden sind Teil das Informationsrecherchesystems LINAS, das an der Fernuniversität Hagen entwickelt wurde, um Nutzern einen natürlichsprachlichen Zugang zu lokalen und zu im Internet verteilten wissenschaftlichen und technischen Informationen anzubieten. Das LINAS-System unterscheidet sich von anderen Systemen und natürlichsprachlichen Interfaces (vgl. OSIRIS) oder die früheren Systeme INTELLECT, Q&A durch die explizite Einbeziehung von Hintergrundwissen und speziellen Dialogmodellen in den Übersetzungsprozeß. Darüber hinaus ist das System auf ein vollständiges Verstehen des natürlichsprachlichen Textes ausgerichtet, während andere Systeme typischerweise nur nach Stichworten oder bestimmten grammatikalischen Mustern in der Eingabe suchen. Ein besonderer Schwerpunkt von LINAS liegt in der Repräsentation und Auswertung der semantischen Relationen zwischen den in der Nutzeranfrage gegebenen Konzepten
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  15. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.02
    0.015917022 = product of:
      0.11141915 = sum of:
        0.026547706 = weight(_text_:der in 3194) [ClassicSimilarity], result of:
          0.026547706 = score(doc=3194,freq=18.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.37019804 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.08487144 = weight(_text_:speziellen in 3194) [ClassicSimilarity], result of:
          0.08487144 = score(doc=3194,freq=2.0), product of:
            0.2220858 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0321037 = queryNorm
            0.38215607 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.14285715 = coord(2/14)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
    Content
    Schriftliche Hausarbeit (Masterarbeit) zur Erlangung des Grades eines Master of Arts An der Universität Trier Fachbereich II Studiengang Computerlinguistik.
  16. Karlova-Bourbonus, N.: Automatic detection of contradictions in texts (2018) 0.01
    0.014772614 = product of:
      0.068938866 = sum of:
        0.029871235 = weight(_text_:philosophie in 5976) [ClassicSimilarity], result of:
          0.029871235 = score(doc=5976,freq=2.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.17561524 = fieldWeight in 5976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5976)
        0.029871235 = weight(_text_:philosophie in 5976) [ClassicSimilarity], result of:
          0.029871235 = score(doc=5976,freq=2.0), product of:
            0.17009477 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0321037 = queryNorm
            0.17561524 = fieldWeight in 5976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5976)
        0.009196396 = weight(_text_:der in 5976) [ClassicSimilarity], result of:
          0.009196396 = score(doc=5976,freq=6.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.12824038 = fieldWeight in 5976, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5976)
      0.21428572 = coord(3/14)
    
    Content
    Inaugural-Dissertation zur Erlangung des Doktorgrades der Philosophie des Fachbereiches 05 - Sprache, Literatur, Kultur der Justus-Liebig-Universität Gießen. Vgl. unter: https://core.ac.uk/download/pdf/196294796.pdf.
    Imprint
    Gießen : Fachbereiches 05 - Sprache, Literatur, Kultur der Justus-Liebig-Universität Gießen
  17. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.014364967 = product of:
      0.100554764 = sum of:
        0.066281825 = weight(_text_:systematische in 2731) [ClassicSimilarity], result of:
          0.066281825 = score(doc=2731,freq=2.0), product of:
            0.19626246 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0321037 = queryNorm
            0.33772033 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.034272943 = weight(_text_:der in 2731) [ClassicSimilarity], result of:
          0.034272943 = score(doc=2731,freq=30.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.47792363 = fieldWeight in 2731, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.14285715 = coord(2/14)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  18. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.01
    0.012475971 = product of:
      0.087331794 = sum of:
        0.062808074 = weight(_text_:spezielle in 6069) [ClassicSimilarity], result of:
          0.062808074 = score(doc=6069,freq=2.0), product of:
            0.21360074 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0321037 = queryNorm
            0.29404426 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.024523722 = weight(_text_:der in 6069) [ClassicSimilarity], result of:
          0.024523722 = score(doc=6069,freq=24.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.34197432 = fieldWeight in 6069, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.14285715 = coord(2/14)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
  19. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.012135778 = product of:
      0.08495044 = sum of:
        0.025540432 = weight(_text_:der in 5912) [ClassicSimilarity], result of:
          0.025540432 = score(doc=5912,freq=34.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.35615197 = fieldWeight in 5912, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.059410006 = weight(_text_:speziellen in 5912) [ClassicSimilarity], result of:
          0.059410006 = score(doc=5912,freq=2.0), product of:
            0.2220858 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0321037 = queryNorm
            0.26750925 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.14285715 = coord(2/14)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  20. Engerer, V.: Exploring interdisciplinary relationships between linguistics and information retrieval from the 1960s to today (2017) 0.01
    0.008384729 = product of:
      0.0586931 = sum of:
        0.04807402 = weight(_text_:geschichte in 3434) [ClassicSimilarity], result of:
          0.04807402 = score(doc=3434,freq=2.0), product of:
            0.15258245 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0321037 = queryNorm
            0.3150691 = fieldWeight in 3434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.046875 = fieldNorm(doc=3434)
        0.0106190825 = weight(_text_:der in 3434) [ClassicSimilarity], result of:
          0.0106190825 = score(doc=3434,freq=2.0), product of:
            0.07171217 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0321037 = queryNorm
            0.14807922 = fieldWeight in 3434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3434)
      0.14285715 = coord(2/14)
    
    Theme
    Geschichte der Sacherschließung

Authors

Years

Languages

  • d 186
  • e 52
  • m 4
  • More… Less…

Types

  • a 171
  • m 39
  • el 34
  • s 16
  • x 12
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications