Search (287 results, page 1 of 15)

  • × theme_ss:"Computerlinguistik"
  1. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.16
    0.16407049 = product of:
      0.32814097 = sum of:
        0.04057602 = product of:
          0.08115204 = sum of:
            0.08115204 = weight(_text_:methoden in 5809) [ClassicSimilarity], result of:
              0.08115204 = score(doc=5809,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.40078837 = fieldWeight in 5809, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5809)
          0.5 = coord(1/2)
        0.22813793 = weight(_text_:techniken in 5809) [ClassicSimilarity], result of:
          0.22813793 = score(doc=5809,freq=8.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.9503403 = fieldWeight in 5809, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.025711019 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.025711019 = score(doc=5809,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.033715997 = weight(_text_:der in 5809) [ClassicSimilarity], result of:
          0.033715997 = score(doc=5809,freq=10.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.38630107 = fieldWeight in 5809, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.5 = coord(4/8)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  2. Krause, J.: Was leisten informationslinguistische Komponenten von Referenz-Retrievalsystemen für Massendaten? : Von der 'Pragmatik im Computer' zur Pragmatikanalyse als Designgrundlage (1986) 0.16
    0.1582007 = product of:
      0.3164014 = sum of:
        0.06955889 = product of:
          0.13911778 = sum of:
            0.13911778 = weight(_text_:methoden in 7395) [ClassicSimilarity], result of:
              0.13911778 = score(doc=7395,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.6870658 = fieldWeight in 7395, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7395)
          0.5 = coord(1/2)
        0.19554679 = weight(_text_:techniken in 7395) [ClassicSimilarity], result of:
          0.19554679 = score(doc=7395,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.8145774 = fieldWeight in 7395, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.09375 = fieldNorm(doc=7395)
        0.025447309 = weight(_text_:und in 7395) [ClassicSimilarity], result of:
          0.025447309 = score(doc=7395,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29385152 = fieldWeight in 7395, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7395)
        0.025848432 = weight(_text_:der in 7395) [ClassicSimilarity], result of:
          0.025848432 = score(doc=7395,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29615843 = fieldWeight in 7395, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=7395)
      0.5 = coord(4/8)
    
    Source
    Deutscher Dokumentartag 1986, Freiburg, 8.-10.10.1986: Bedarfsorientierte Fachinformation: Methoden und Techniken am Arbeitsplatz. Bearb.: H. Strohl-Goebel
  3. Schwarz, C.; Thurmair, G.: REALIST: eine Retrievalhilfe mit informationslinguistischen Komponenten (1986) 0.11
    0.108957365 = product of:
      0.29055297 = sum of:
        0.06955889 = product of:
          0.13911778 = sum of:
            0.13911778 = weight(_text_:methoden in 493) [ClassicSimilarity], result of:
              0.13911778 = score(doc=493,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.6870658 = fieldWeight in 493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.09375 = fieldNorm(doc=493)
          0.5 = coord(1/2)
        0.19554679 = weight(_text_:techniken in 493) [ClassicSimilarity], result of:
          0.19554679 = score(doc=493,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.8145774 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.09375 = fieldNorm(doc=493)
        0.025447309 = weight(_text_:und in 493) [ClassicSimilarity], result of:
          0.025447309 = score(doc=493,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29385152 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=493)
      0.375 = coord(3/8)
    
    Source
    Deutscher Dokumentartag 1986, Freiburg, 8.-10.10.1986: Bedarfsorientierte Fachinformation: Methoden und Techniken am Arbeitsplatz. Bearb.: H. Strohl-Goebel
  4. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.11
    0.105577156 = product of:
      0.28153908 = sum of:
        0.06955889 = product of:
          0.13911778 = sum of:
            0.13911778 = weight(_text_:methoden in 4888) [ClassicSimilarity], result of:
              0.13911778 = score(doc=4888,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.6870658 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
        0.025848432 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.025848432 = score(doc=4888,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.18613175 = sum of:
          0.12260618 = weight(_text_:forschung in 4888) [ClassicSimilarity], result of:
            0.12260618 = score(doc=4888,freq=2.0), product of:
              0.19008557 = queryWeight, product of:
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.039072596 = queryNorm
              0.64500517 = fieldWeight in 4888, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.09375 = fieldNorm(doc=4888)
          0.063525565 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
            0.063525565 = score(doc=4888,freq=2.0), product of:
              0.13682558 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.039072596 = queryNorm
              0.46428138 = fieldWeight in 4888, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=4888)
      0.375 = coord(3/8)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  5. Ohly, H.P.; Binder, G.: Semantisches Retrieval mit sozialwissenschaftlichen Dokumenten : erste Erfahrungen mit RELATIO/IR (1994) 0.08
    0.08484936 = product of:
      0.33939743 = sum of:
        0.025447309 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.025447309 = score(doc=346,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29385152 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=346)
        0.31395012 = weight(_text_:sozialwissenschaftlichen in 346) [ClassicSimilarity], result of:
          0.31395012 = score(doc=346,freq=2.0), product of:
            0.30417487 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.039072596 = queryNorm
            1.0321369 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.09375 = fieldNorm(doc=346)
      0.25 = coord(2/8)
    
    Source
    Blick Europa! Informations- und Dokumentenmanagement. Deutscher Dokumentartag 1994, Universität Trier, 27.-30.9.1994. Hrsg.: W. Neubauer
  6. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.08
    0.07554496 = product of:
      0.15108992 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 2818) [ClassicSimilarity], result of:
              0.092745185 = score(doc=2818,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
        0.029384023 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.029384023 = score(doc=2818,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.034464575 = weight(_text_:der in 2818) [ClassicSimilarity], result of:
          0.034464575 = score(doc=2818,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3948779 = fieldWeight in 2818, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.040868726 = product of:
          0.08173745 = sum of:
            0.08173745 = weight(_text_:forschung in 2818) [ClassicSimilarity], result of:
              0.08173745 = score(doc=2818,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.43000343 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  7. Sparck Jones, K.; Kay, M.: Linguistik und Informationswissenschaft (1976) 0.07
    0.06852393 = product of:
      0.18273047 = sum of:
        0.03793461 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.03793461 = score(doc=3,freq=10.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.438048 = fieldWeight in 3, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.09030257 = weight(_text_:organisation in 3) [ClassicSimilarity], result of:
          0.09030257 = score(doc=3,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.4519719 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.05449328 = weight(_text_:der in 3) [ClassicSimilarity], result of:
          0.05449328 = score(doc=3,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.6243568 = fieldWeight in 3, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.375 = coord(3/8)
    
    Abstract
    Diese Arbeit befaßt sich mit den sprachlichen Aspekten der Informationswissenschaft, insbesondere mit den sprachlichen Komponenten der Analyse, der beschreibung und dem Retrieval von Dokumenten. Dabei wird erforscht, welche linguistischen Verfahren und Theorien von der Informationswissenschaft genützt werden können. Unter anderem werden untersucht die Anwendung der Sprachtheorie auf die Struktur der Erkenntnis, die Verwertung der Phonologie, Morphologie, Syntax und Semantik in der Organisation, der Speicherung und in der Überbringung von Informationen
  8. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.07
    0.06664112 = product of:
      0.17770965 = sum of:
        0.11406896 = weight(_text_:techniken in 4099) [ClassicSimilarity], result of:
          0.11406896 = score(doc=4099,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 4099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
        0.020992959 = weight(_text_:und in 4099) [ClassicSimilarity], result of:
          0.020992959 = score(doc=4099,freq=4.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.24241515 = fieldWeight in 4099, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
        0.042647738 = weight(_text_:der in 4099) [ClassicSimilarity], result of:
          0.042647738 = score(doc=4099,freq=16.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4886365 = fieldWeight in 4099, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
      0.375 = coord(3/8)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  9. Wittek, B.R.: Schöne neue Abfragewelt : Datenbank-Zugangssysteme auf der Basis natürlicher Sprache (1994) 0.06
    0.06438733 = product of:
      0.17169954 = sum of:
        0.13036454 = weight(_text_:techniken in 8791) [ClassicSimilarity], result of:
          0.13036454 = score(doc=8791,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.5430516 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
        0.016964873 = weight(_text_:und in 8791) [ClassicSimilarity], result of:
          0.016964873 = score(doc=8791,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.19590102 = fieldWeight in 8791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
        0.024370136 = weight(_text_:der in 8791) [ClassicSimilarity], result of:
          0.024370136 = score(doc=8791,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27922085 = fieldWeight in 8791, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=8791)
      0.375 = coord(3/8)
    
    Abstract
    Kann die deutsche Sprache als Datenbankabfragesprache eingesetzt werden? Seit Jahrzehnten wurde diese Frage verneint, weil klare Kriterien für die Formalisierung natürlicher Sprache und Werkzeuge für eine kostengünstige Durchführung fehlten. Allerdings darf diese Frage wieder gestellt werden, seitdem Techniken für deren Formalisierung zunehmend zur Verfügung stehen. Dieser Artikel beschreibt, was auf dem Gebiet der natürlichen Sprache als Basis für die Datenbankabfrage heute schon möglich ist
  10. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.06
    0.062211104 = product of:
      0.16589628 = sum of:
        0.11406896 = weight(_text_:techniken in 1047) [ClassicSimilarity], result of:
          0.11406896 = score(doc=1047,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.025711019 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.025711019 = score(doc=1047,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.0261163 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.0261163 = score(doc=1047,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.375 = coord(3/8)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  11. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.06
    0.06192035 = product of:
      0.16512093 = sum of:
        0.029688528 = weight(_text_:und in 3510) [ClassicSimilarity], result of:
          0.029688528 = score(doc=3510,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.34282678 = fieldWeight in 3510, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.07901475 = weight(_text_:organisation in 3510) [ClassicSimilarity], result of:
          0.07901475 = score(doc=3510,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.3954754 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.056417648 = weight(_text_:der in 3510) [ClassicSimilarity], result of:
          0.056417648 = score(doc=3510,freq=28.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.6464053 = fieldWeight in 3510, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
      0.375 = coord(3/8)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  12. Hahn, U.: Informationslinguistik : II: Einführung in das linguistische Information Retrieval (1985) 0.06
    0.059348844 = product of:
      0.11869769 = sum of:
        0.02028801 = product of:
          0.04057602 = sum of:
            0.04057602 = weight(_text_:methoden in 3116) [ClassicSimilarity], result of:
              0.04057602 = score(doc=3116,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.20039418 = fieldWeight in 3116, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3116)
          0.5 = coord(1/2)
        0.028745795 = weight(_text_:und in 3116) [ClassicSimilarity], result of:
          0.028745795 = score(doc=3116,freq=30.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33194062 = fieldWeight in 3116, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3116)
        0.039507374 = weight(_text_:organisation in 3116) [ClassicSimilarity], result of:
          0.039507374 = score(doc=3116,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.1977377 = fieldWeight in 3116, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3116)
        0.030156504 = weight(_text_:der in 3116) [ClassicSimilarity], result of:
          0.030156504 = score(doc=3116,freq=32.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34551817 = fieldWeight in 3116, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3116)
      0.5 = coord(4/8)
    
    Abstract
    Als Bestandteil des Ausbildungsprogramms im Aufbaustudiun Informationswissenschaft an der Universitaet Konstanz (vgl. VOGEL 1984) ist ein Veranstaltungszyklus zur Informationslinguistik entwickelt worden. Die curriculare Planung zu diesem informationswissenschaftlichen Teilgebiet war stark eingebunden in die gesamte Organisation des Aufbaustudiums bzw. Diplomstudiengangs Informationswissenschaft, wobei insbesondere zwei Faktoren einen bestimmenden Einfluss auf die Definition der Lehrinhalte hatten: - die inhaltlichen Anforderungen des entwickelten Berufsbilds Informationsvermittlung und Informationsmanagemsnt - der zulaessige Zeitrahmen des Diplom-Studiengangs Informationswissenschaft (2 Jahre) und die nicht geringen Aufwaende fuer das uebrige Ausbildungsprogramm Die Informationslinguistik ist somit aus einer stark funktionalen Sicht heraus definiert worden, die den Leistungsbeitrag zur umfassenden informationswissenschaftlichen Ausbildung letztlich mehr betont als dis ziplinaere Eigendynamik. Die jetzt realisierte Verbindung aus obligatorischen und fakultativen Veranstaltungen zur Informationslinguistik erlaubt jedoch den an entsprechenden Fachfragen interessierten Studenten durchaus eine qualitativ ausreichende Vertiefung im Rahmen des informationswissenschaftlichen Lehrangebots, das ggf. noch durch Veranstaltungen der unterschiedlichen linguistischen Abteilungen an der Universitaet Konstanz ergaenzt werden kann. Schliesslich ist einer der Forschungsschwerpunkte des Lehrstuhls fuer Informationswissenschaft, das automatische Abstracting-Projekt TOPIC (HAHN/REIMER 1985), eindeutig dem Bereich Informationslinguistik zuzuordnen, der engagierten Studenten weitere Optionen fuer eine spezialisierte Ausbildung und - im Rahmen von durch Studien- und Diplomarbeiten klar abgesteckten Aufgaben - eigenstaendige Forschungs- und Entwicklungstaetigkeit eroeffnet. Informationslinguistik wird am Lehrstuhl fuer Informationswissenschaft der Universitaet Konstanz nun in folgender Konstellation gelehrt:
    (1) "Informationslinguistik I: Einfuehrung in das linguistische Information Retrieval" (2) "Informationslinguistik II: linguistische und statistische Verfahren im experimentellen Information Retrieval" (3) "Intelligente Informationssysteme: Verfahren der Kuenstlichen Intelligenz im experimentellen Information Retrieval" Kursabschnitt zu natuerlichsprachlichen Systemen (4) Spezialkurse zum automatischen Uebersetzen, Indexing und Retrieval, Abstracting usf. dienen zur Vertiefung informationslinguistischer Spezialthemen Die Kurse (1) und (3) gehoeren zu dem Pool der Pflichtveranstaltungen aller Studenten des Diplom-Studiengangs Informationswissenschaft, waehrend (2) und (4) lediglich zu den Wahlpflichtveranstaltungen zaehlen, die aber obligatorisch fuer die Studenten des Diplomstudiengangs sind, die ihren Schwerpunkt (z.B. in Form der Diplomarbeit) im Bereich Informationslinguistik suchen - fuer alle anderen Studenten zaehlen diese Kurse zum Zusatz angebot an Lehrveranstaltungen.
    Das vorliegende Skript entspricht dem Inhalt des Kurses "Informationslinguistik II" im SS 1983 bzw. SS 1984. Es ist im Juli 1983 inhaltlich abgeschlossen und im Januar 1985 lediglich redaktionell ueberarbeitet worden. Die Erstellung des Skripts entspricht einem dezidierten Auftrag des Projekts "Informationsvermittlung", der die Entwicklung geeigneter Lehrmaterialien zum informationswissenschaftlichen Aufbaustudium vorsah. Aufgrund des engen Projektzeitrahmens (1982-84) kann das Skript nicht in dem Masse voll ausgereift und ausformuliert sein, wie es gaengigen Standards entspraeche. Im Unterschied zum Skript "Informationslinguistik I" (HAHN 1985) laesst das vorliegende Skript wahlweise eine eher methoden- oder mehr systembezogene Darstellung informationslinguistischer Konzepte des experimentellen Information Retrieval zu (beides zusammen schliesst der enge Zeitrahmen eines Sommersemesters ausl). Die Entscheidung darueber sollte wenn moeglich in Abhaengigkeit zur personellen Zusammensetzung des Kurses getroffen werden, wobei - sofern die bislang genachten Erfahrungen verallgemeinerbar sind - sich bei einem nicht ausschliesslich an einer informationslinguistischen Spezialisierung interessierten und damit heterogenen Publikum die mehr systembezogene Praesentation als fuer das Verstaendnis informationslinguistischer Fragestellungen und entsprechender Verfahrensloesungen guenstiger gezeigt hat. Innerhalb dieser Nuancierung besitzt aber auch dieses Skript schon eine akzeptable inhaltliche Stabilitaet. Nichtsdestotrotz sollte gerade die Veroeffentlichung des Skripts als Anregung dienen, kritische Kommentare, Anmerkungen und Ergaenzungen zu diesem curricularen Entwurf herauszufordern, um damit die weitere disziplinaere Klaerung der Informationslinguistik zu foerdern.
    Footnote
    Kurs-Skript der gleichnamigen Lehrveranstaltung im WS 1982/83 am Lehrstuhl für Informationswissenschaft der Universität Konstanz
  13. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.06
    0.057227746 = product of:
      0.15260732 = sum of:
        0.03793461 = weight(_text_:und in 868) [ClassicSimilarity], result of:
          0.03793461 = score(doc=868,freq=10.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.438048 = fieldWeight in 868, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
        0.09030257 = weight(_text_:organisation in 868) [ClassicSimilarity], result of:
          0.09030257 = score(doc=868,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.4519719 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
        0.024370136 = weight(_text_:der in 868) [ClassicSimilarity], result of:
          0.024370136 = score(doc=868,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27922085 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
      0.375 = coord(3/8)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
    Source
    https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
  14. Computerlinguistik und Sprachtechnologie : Eine Einführung (2001) 0.06
    0.055867627 = product of:
      0.14898033 = sum of:
        0.06023977 = product of:
          0.12047954 = sum of:
            0.12047954 = weight(_text_:methoden in 1749) [ClassicSimilarity], result of:
              0.12047954 = score(doc=1749,freq=6.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.5950165 = fieldWeight in 1749, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1749)
          0.5 = coord(1/2)
        0.04587579 = weight(_text_:und in 1749) [ClassicSimilarity], result of:
          0.04587579 = score(doc=1749,freq=26.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.5297484 = fieldWeight in 1749, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
        0.042864773 = weight(_text_:der in 1749) [ClassicSimilarity], result of:
          0.042864773 = score(doc=1749,freq=22.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4911232 = fieldWeight in 1749, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
      0.375 = coord(3/8)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
  15. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.06
    0.055786 = product of:
      0.14876266 = sum of:
        0.038170967 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.038170967 = score(doc=5882,freq=18.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.067726925 = weight(_text_:organisation in 5882) [ClassicSimilarity], result of:
          0.067726925 = score(doc=5882,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.33897892 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.042864773 = weight(_text_:der in 5882) [ClassicSimilarity], result of:
          0.042864773 = score(doc=5882,freq=22.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4911232 = fieldWeight in 5882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.375 = coord(3/8)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.05
    0.054021228 = product of:
      0.108042456 = sum of:
        0.02898287 = product of:
          0.05796574 = sum of:
            0.05796574 = weight(_text_:methoden in 123) [ClassicSimilarity], result of:
              0.05796574 = score(doc=123,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2862774 = fieldWeight in 123, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=123)
          0.5 = coord(1/2)
        0.021206092 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.021206092 = score(doc=123,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.24487628 = fieldWeight in 123, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.032310538 = weight(_text_:der in 123) [ClassicSimilarity], result of:
          0.032310538 = score(doc=123,freq=18.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.37019804 = fieldWeight in 123, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
        0.025542954 = product of:
          0.051085908 = sum of:
            0.051085908 = weight(_text_:forschung in 123) [ClassicSimilarity], result of:
              0.051085908 = score(doc=123,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.26875216 = fieldWeight in 123, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=123)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  17. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.05
    0.053606227 = product of:
      0.107212454 = sum of:
        0.02028801 = product of:
          0.04057602 = sum of:
            0.04057602 = weight(_text_:methoden in 572) [ClassicSimilarity], result of:
              0.04057602 = score(doc=572,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.20039418 = fieldWeight in 572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=572)
          0.5 = coord(1/2)
        0.030602232 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.030602232 = score(doc=572,freq=34.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.35337773 = fieldWeight in 572, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.03844215 = weight(_text_:der in 572) [ClassicSimilarity], result of:
          0.03844215 = score(doc=572,freq=52.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.44045097 = fieldWeight in 572, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.017880067 = product of:
          0.035760134 = sum of:
            0.035760134 = weight(_text_:forschung in 572) [ClassicSimilarity], result of:
              0.035760134 = score(doc=572,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.1881265 = fieldWeight in 572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=572)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
    Imprint
    Hildesheim : Universität Hildesheim / Fachbereich III; Informations- und Kommunikationswissenschaften
  18. Budin, G.: Zum Entwicklungsstand der Terminologiewissenschaft (2019) 0.05
    0.05120651 = product of:
      0.1365507 = sum of:
        0.057383157 = product of:
          0.114766315 = sum of:
            0.114766315 = weight(_text_:methoden in 5604) [ClassicSimilarity], result of:
              0.114766315 = score(doc=5604,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.56680036 = fieldWeight in 5604, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5604)
          0.5 = coord(1/2)
        0.03927423 = weight(_text_:und in 5604) [ClassicSimilarity], result of:
          0.03927423 = score(doc=5604,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4535172 = fieldWeight in 5604, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
        0.039893307 = weight(_text_:der in 5604) [ClassicSimilarity], result of:
          0.039893307 = score(doc=5604,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4570776 = fieldWeight in 5604, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
      0.375 = coord(3/8)
    
    Abstract
    In diesem Aufsatz wird der Entwicklungsstand der Terminologiewissenschaft auf 3 Ebenen analysiert: (1) in Bezug auf die Forschungsfragen, die in Forschungsprojekten, universitären Qualifizierungsarbeiten und anderen Forschungskontexten gestellt und auf der Basis empirischer Analysen beantwortet werden, darauf aufbauend (2) in Bezug auf die Methoden, die dabei verwendet werden, die Theorien, die solchen Arbeiten zugrunde gelegt werden, und die Paradigmen, in denen sich die Theorien und Methoden verorten lassen, sowie (3) in Bezug auf die darüber liegende Ebene der Terminologiewissenschaft als Disziplin. Auf allen 3 Ebenen lässt sich feststellen, dass der interdisziplinäre und multiperspektivische Charakter der Terminologiewissenschaft in den letzten Jahrzehnten zugenommen hat und sich weiter verstärkt.
    Series
    Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
  19. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.05
    0.049086247 = product of:
      0.13089666 = sum of:
        0.03673003 = weight(_text_:und in 1044) [ClassicSimilarity], result of:
          0.03673003 = score(doc=1044,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.42413816 = fieldWeight in 1044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.04308072 = weight(_text_:der in 1044) [ClassicSimilarity], result of:
          0.04308072 = score(doc=1044,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4935974 = fieldWeight in 1044, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.051085908 = product of:
          0.102171816 = sum of:
            0.102171816 = weight(_text_:forschung in 1044) [ClassicSimilarity], result of:
              0.102171816 = score(doc=1044,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.5375043 = fieldWeight in 1044, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1044)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  20. Rolland, M.T.: Logotechnik als Grundlage einer vollautomatischen Sprachverarbeitung (1995) 0.05
    0.048390977 = product of:
      0.12904261 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 1313) [ClassicSimilarity], result of:
              0.092745185 = score(doc=1313,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 1313, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1313)
          0.5 = coord(1/2)
        0.033929747 = weight(_text_:und in 1313) [ClassicSimilarity], result of:
          0.033929747 = score(doc=1313,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.39180204 = fieldWeight in 1313, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1313)
        0.04874027 = weight(_text_:der in 1313) [ClassicSimilarity], result of:
          0.04874027 = score(doc=1313,freq=16.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5584417 = fieldWeight in 1313, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1313)
      0.375 = coord(3/8)
    
    Abstract
    Mit Hilfe der Logotechnik, der rein semantikorientierten Methoden der Sprachverarbeitung, ist es möglich, die Sprache in ihren Regeln und Aufbaugesetzmäßigkeiten zu durchschauen und damit einer vollautomatischen Verarbeitung zugänglich zu machen. Semantik meint die geistige Seite der Sprache, die die Syntax impliziert. Im Zentrum der Betrachtungen steht das Wort, sein Inhalt und die von diesem bedingten Sprachstrukturen. Auf der Basis der Erkenntnisse vom Aufbau der Sprache ist die Konzeption eines Dialogsystems, und zwar eines Systems zur Wissensabfrage, dargestellt. Abschließend erfolgen Hinweise auf weitere mögliche Anwendungen, von denen die maschinelle Übersetzung von zentraler Wichtigkeit ist

Authors

Years

Languages

  • d 218
  • e 62
  • m 4
  • f 3
  • ru 1
  • More… Less…

Types

  • a 204
  • m 48
  • el 39
  • s 19
  • x 13
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications