Search (259 results, page 1 of 13)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.21
    0.21365476 = product of:
      0.569746 = sum of:
        0.042980514 = product of:
          0.12894154 = sum of:
            0.12894154 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.12894154 = score(doc=562,freq=2.0), product of:
                0.22942597 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027061297 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.12894154 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12894154 = score(doc=562,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.12894154 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12894154 = score(doc=562,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.12894154 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12894154 = score(doc=562,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.12894154 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12894154 = score(doc=562,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.010999297 = product of:
          0.021998594 = sum of:
            0.021998594 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.021998594 = score(doc=562,freq=2.0), product of:
                0.094764054 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027061297 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.375 = coord(6/16)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.17
    0.17460835 = product of:
      0.5587467 = sum of:
        0.042980514 = product of:
          0.12894154 = sum of:
            0.12894154 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.12894154 = score(doc=862,freq=2.0), product of:
                0.22942597 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027061297 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.12894154 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.12894154 = score(doc=862,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.12894154 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.12894154 = score(doc=862,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.12894154 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.12894154 = score(doc=862,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.12894154 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.12894154 = score(doc=862,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3125 = coord(5/16)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.16
    0.1646142 = product of:
      0.52676547 = sum of:
        0.12894154 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.12894154 = score(doc=563,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.12894154 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.12894154 = score(doc=563,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.12894154 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.12894154 = score(doc=563,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.12894154 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.12894154 = score(doc=563,freq=2.0), product of:
            0.22942597 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027061297 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010999297 = product of:
          0.021998594 = sum of:
            0.021998594 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.021998594 = score(doc=563,freq=2.0), product of:
                0.094764054 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027061297 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Hahn, U.: Methodische Grundlagen der Informationslinguistik (2013) 0.05
    0.047666263 = product of:
      0.19066505 = sum of:
        0.02077074 = weight(_text_:und in 719) [ClassicSimilarity], result of:
          0.02077074 = score(doc=719,freq=4.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34630734 = fieldWeight in 719, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
        0.06067172 = weight(_text_:informationswissenschaft in 719) [ClassicSimilarity], result of:
          0.06067172 = score(doc=719,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.49770427 = fieldWeight in 719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
        0.06067172 = weight(_text_:informationswissenschaft in 719) [ClassicSimilarity], result of:
          0.06067172 = score(doc=719,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.49770427 = fieldWeight in 719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
        0.048550874 = product of:
          0.09710175 = sum of:
            0.09710175 = weight(_text_:grundlagen in 719) [ClassicSimilarity], result of:
              0.09710175 = score(doc=719,freq=4.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.74877137 = fieldWeight in 719, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.078125 = fieldNorm(doc=719)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  5. Kummer, N.: Indexierungstechniken für das japanische Retrieval (2006) 0.05
    0.0468681 = product of:
      0.1874724 = sum of:
        0.02627314 = weight(_text_:und in 5979) [ClassicSimilarity], result of:
          0.02627314 = score(doc=5979,freq=10.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.438048 = fieldWeight in 5979, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.048537377 = weight(_text_:informationswissenschaft in 5979) [ClassicSimilarity], result of:
          0.048537377 = score(doc=5979,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.048537377 = weight(_text_:informationswissenschaft in 5979) [ClassicSimilarity], result of:
          0.048537377 = score(doc=5979,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.06412452 = weight(_text_:theorie in 5979) [ClassicSimilarity], result of:
          0.06412452 = score(doc=5979,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.45765188 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
      0.25 = coord(4/16)
    
    Abstract
    Der vorliegende Artikel beschreibt die Herausforderungen, die die japanische Sprache aufgrund der besonderen Struktur ihres Schriftsystems an das Information Retrieval stellt und präsentiert Strategien und Ansätze für die Indexierung japanischer Dokumente. Im Besonderen soll auf die Effektivität aussprachebasierter (yomi-based) Indexierung sowie Fusion verschiedener einzelner Indexierungsansätze eingegangen werden.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Nhongkai, S.N.; Bentz, H.-J.: Bilinguale Suche mittels Konzeptnetzen (2006) 0.05
    0.046174668 = product of:
      0.18469867 = sum of:
        0.02349941 = weight(_text_:und in 3914) [ClassicSimilarity], result of:
          0.02349941 = score(doc=3914,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.39180204 = fieldWeight in 3914, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.048537377 = weight(_text_:informationswissenschaft in 3914) [ClassicSimilarity], result of:
          0.048537377 = score(doc=3914,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.048537377 = weight(_text_:informationswissenschaft in 3914) [ClassicSimilarity], result of:
          0.048537377 = score(doc=3914,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.06412452 = weight(_text_:theorie in 3914) [ClassicSimilarity], result of:
          0.06412452 = score(doc=3914,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.45765188 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
      0.25 = coord(4/16)
    
    Abstract
    Eine neue Methode der Volltextsuche in bilingualen Textsammlungen wird vorgestellt und anhand eines parallelen Textkorpus (Englisch-Deutsch) geprüft. Die Brücke liefern passende Wortcluster, die aus einer Kookkurrenzanalyse stammen, geliefert von der neuartigen Suchmaschine SENTRAX (Essente Extractor Engine). Diese Cluster repräsentieren Konzepte, die sich in beiden Textsammlungen finden. Die Hypothese ist, dass das Finden mittels solcher Strukturvergleiche erfolgreich möglich ist.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Sonnenberger, G.: Automatische Wissensakquisition aus Texten : Textparsing (1990) 0.04
    0.041915853 = product of:
      0.22355121 = sum of:
        0.017624559 = weight(_text_:und in 8428) [ClassicSimilarity], result of:
          0.017624559 = score(doc=8428,freq=2.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.29385152 = fieldWeight in 8428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=8428)
        0.10296333 = weight(_text_:informationswissenschaft in 8428) [ClassicSimilarity], result of:
          0.10296333 = score(doc=8428,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.84463215 = fieldWeight in 8428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=8428)
        0.10296333 = weight(_text_:informationswissenschaft in 8428) [ClassicSimilarity], result of:
          0.10296333 = score(doc=8428,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.84463215 = fieldWeight in 8428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=8428)
      0.1875 = coord(3/16)
    
    Series
    Konstanzer Schriften zur Informationswissenschaft; Bd.1
    Source
    Pragmatische Aspekte beim Entwurf und Betrieb von Informationssystemen: Proc. 1. Int. Symposiums für Informationswissenschaft, Universität Konstanz, 17.-19.10.1990. Hrsg.: J. Herget u. R. Kuhlen
  8. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.04
    0.04100959 = product of:
      0.16403836 = sum of:
        0.022989 = weight(_text_:und in 5978) [ClassicSimilarity], result of:
          0.022989 = score(doc=5978,freq=10.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.38329202 = fieldWeight in 5978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.042470206 = weight(_text_:informationswissenschaft in 5978) [ClassicSimilarity], result of:
          0.042470206 = score(doc=5978,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.042470206 = weight(_text_:informationswissenschaft in 5978) [ClassicSimilarity], result of:
          0.042470206 = score(doc=5978,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.056108955 = weight(_text_:theorie in 5978) [ClassicSimilarity], result of:
          0.056108955 = score(doc=5978,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.4004454 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
      0.25 = coord(4/16)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  9. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.04
    0.040402837 = product of:
      0.16161135 = sum of:
        0.020561984 = weight(_text_:und in 3510) [ClassicSimilarity], result of:
          0.020561984 = score(doc=3510,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34282678 = fieldWeight in 3510, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.042470206 = weight(_text_:informationswissenschaft in 3510) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3510,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.042470206 = weight(_text_:informationswissenschaft in 3510) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3510,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.056108955 = weight(_text_:theorie in 3510) [ClassicSimilarity], result of:
          0.056108955 = score(doc=3510,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.4004454 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
      0.25 = coord(4/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  10. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.04
    0.039674148 = product of:
      0.12695727 = sum of:
        0.022388889 = weight(_text_:buch in 91) [ClassicSimilarity], result of:
          0.022388889 = score(doc=91,freq=6.0), product of:
            0.12581798 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027061297 = queryNorm
            0.17794664 = fieldWeight in 91, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.024043871 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.024043871 = score(doc=91,freq=134.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.011882282 = product of:
          0.023764564 = sum of:
            0.023764564 = weight(_text_:bibliothekswesen in 91) [ClassicSimilarity], result of:
              0.023764564 = score(doc=91,freq=8.0), product of:
                0.12063039 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027061297 = queryNorm
                0.19700313 = fieldWeight in 91, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
        0.03432111 = weight(_text_:informationswissenschaft in 91) [ClassicSimilarity], result of:
          0.03432111 = score(doc=91,freq=16.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.28154406 = fieldWeight in 91, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.03432111 = weight(_text_:informationswissenschaft in 91) [ClassicSimilarity], result of:
          0.03432111 = score(doc=91,freq=16.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.28154406 = fieldWeight in 91, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
      0.3125 = coord(5/16)
    
    Abstract
    Der vorliegende Band enthält Beiträge namhafter Autoren aus den Bereichen Informationswissenschaft, Computerlinguistik, Kommunikationswissenschaft, Bibliothekswesen und verwandten Fächern. Es werden sowohl aktuelle theoretische Themen behandelt, etwa zu Medientheorie und Internet, zum Verhältnis von Information und kulturellem Gedächtnis oder über Information im Museum, als auch praktische Anwendungen und Vorschläge gegeben, wie z.B. zur Automatischen Indexierung und zur Wissensrepräsentation.
    BK
    06.30 Bibliothekswesen
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    06.30 Bibliothekswesen
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt: Information und Sprache und mehr - eine Einleitung - Information und Kommunikation Wolf Rauch: Auch Information ist eine Tochter der Zeit Winfried Lenders: Information und kulturelles Gedächtnis Rainer Hammwöhner: Anmerkungen zur Grundlegung der Informationsethik Hans W. Giessen: Ehrwürdig stille Informationen Gernot Wersig: Vereinheitlichte Medientheorie und ihre Sicht auf das Internet Johann Haller, Anja Rütten: Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern? Rainer Kuhlen: In Richtung Summarizing für Diskurse in K3 Werner Schweibenz: Sprache, Information und Bedeutung im Museum. Narrative Vermittlung durch Storytelling - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung Manfred Thiel: Bedingt wahrscheinliche Syntaxbäume Jürgen Krause: Shell Model, Semantic Web and Web Information Retrieval Elisabeth Niggemann: Wer suchet, der findet? Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek Christa Womser-Hacker: Zur Rolle von Eigennamen im Cross-Language Information Retrieval Klaus-Dirk Schmitz: Wörterbuch, Thesaurus, Terminologie, Ontologie. Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei?
    Jiri Panyr: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? Heinz-Dieter Maas: Indexieren mit AUTINDEX Wilhelm Gaus, Rainer Kaluscha: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten Klaus Lepsky: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte - Analysen und Entwicklungen Ilse Harms: Die computervermittelte Kommunikation als ein Instrument des Wissensmanagements in Organisationen August- Wilhelm Scheer, Dirk Werth: Geschäftsregel-basiertes Geschäftsprozessmanagement Thomas Seeger: Akkreditierung und Evaluierung von Hochschullehre und -forschung in Großbritannien. Hinweise für die Situation in Deutschland Bernd Hagenau: Gehabte Sorgen hab' ich gern? Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 - Persönliches Jorgo Chatzimarkakis: Sprache und Information in Europa Alfred Gulden: 7 Briefe und eine Anmerkung Günter Scholdt: Der Weg nach Europa im Spiegel von Mundartgedichten Alfred Guldens Wolfgang Müller: Prof. Dr. Harald H. Zimmermann - Seit 45 Jahren der Universität des Saarlandes verbunden Heinz-Dirk Luckhardt: Computerlinguistik und Informationswissenschaft: Facetten des wissenschaftlichen Wirkens von Harald H. Zimmermann Schriftenverzeichnis Harald H. Zimmermanns 1967-2005 - Projekte in Verantwortung von Harald H. Zimmermann - Adressen der Beiträgerinnen und Beiträger
    Footnote
    Rez. in Mitt. VÖB 59(2006) Nr.3, S.75-78 (O. Oberhauser): "Beim vorliegenden Buch handelt es sich um die Festschrift zum 65. Geburtstag des mit Ende des Sommersemesters 2006 in den Ruhestand getretenen Universitätsprofessors für Informationswissenschaft, Harald H. Zimmermann, jenes 1941 in Völklingen geborenen Computerlinguisten, der die Informationswissenschaft als akademische Disziplin in Deutschland mitbegründet und seit 1980 an der Universität des Saarlandes vertreten hat. Die insgesamt 26 Beiträge des von Professor Zimmermanns Mitarbeitern betreuten, optisch gediegen anmutenden Saur-Bandes gliedern sich - so das Inhaltsverzeichnis - in vier Themenschwerpunkte: - Information und Kommunikation - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung - Analysen und Entwicklungen - Persönliches Die Aufsätze selbst variieren, wie bei Festschriften üblich bzw. unvermeidbar, hinsichtlich Länge, Stil, thematischem Detail und Anspruchsniveau. Neben wissenschaftlichen Beiträgen findet man hier auch Reminiszenzen und Literarisches. Die nachfolgende Auswahl zeigt, was mich selbst an diesem Buch interessiert hat:
    In Information und kulturelles Gedächtnis (S. 7-15) plädiert der Kommunikationswissenschaftler Winfried Lenders (Bonn) dafür, Information nicht mit dem zu identifizieren, was heute als (kulturelles) Gedächtnis bezeichnet wird. Information ist ein Prozess bzw. Vorgang und kein manifestes Substrat; sie setzt aber ein solches Substrat, nämlich das im (kulturellen) Gedächtnis abgespeicherte Wissen, voraus. Allerdings führt nicht jedes Informieren zu einer Vermehrung des kulturellen Gedächtnisses - das notwendige Auswahlkriterium liegt jedoch nicht in der grundsätzliche Möglichkeit zum Speichern von Inhalten. Es liegt auch nicht ausschliesslich in formalisierten Aussonderungsmechanismen wie Skartieren, Zitationsindizes und Relevanzrangreihen, sondern in der gesellschaftlichen Kommunikation schlechthin. Auch an die Verfügbarkeit des Schriftlichen ist das kulturelle Gedächtnis nicht gebunden, zumal ja auch in Kulturen der Oralität gesellschaftlich Wichtiges aufbewahrt wird. Rainer Hammwöhner (Regensburg) geht in Anmerkungen zur Grundlegung der Informationsethik (S. 17-27) zunächst auf die "Überversorgung" des Informationssektors mit Spezialethiken ein, wobei er neben der (als breiter angesehenen) Informationsethik konkurrierende Bereichsethiken wie Medienethik, Computerethik und Netzethik/Cyberethik thematisiert und Überlappungen, Abgrenzung, Hierarchisierung etc. diskutiert. Versuche einer diskursethischen wie einer normenethischen Begründung der Informationsethik sind nach Hammwöhner zum Scheitern verurteilt, sodass er einen pragmatistischen Standpunkt einnimmt, wonach Informationsethik ganz einfach "die Analyse und Systematisierung der im Zusammenhang der digitalen Kommunikation etablierten normativen Handlungsmuster" zu leisten habe. In diesem Konnex werden Fragen wie jene nach dem Guten, aber auch Aspekte wie die Bewahrung des kulturellen Erbes für spätere Generationen und der Erhalt der kulturellen Mannigfaltigkeit angesprochen. Der Beitrag des vor kurzem verstorbenen Gründungsvaters der deutschen Informationswissenschaft, Gernot Wersig (Berlin), ist mit Vereinheitlichte Medientheorie und ihre Sicht auf das Internet (S. 35-46) überschrieben. Der Autor gibt darin einen kurzen Überblick über bisherige medientheoretische Ansätze und versucht sodann - ausgehend von den Werken Niklas Luhmanns und Herbert Stachowiaks - eine "vereinheitlichte Medientheorie" zu entwickeln. Dabei werden die Faktoren Kommunikation, Medien, Medienplattformen und -typologien, Medienevolution und schließlich die digitale Revolution diskutiert. Das Internet, so folgert Wersig, sei eine Medienplattform mit dem Potential, eine ganze Epoche zu gestalten. In Anlehnung an den bekannten Begriff "Gutenberg-Galaxis" spricht er hier auch von einer "Internet-Galaxie". Obwohl dieser Artikel viele interessante Gedanken enthält, erschließt er sich dem Leser leider nur schwer, da vieles vorausgesetzt wird und auch der gewählte Soziologenjargon nicht jedermanns Sache ist.
    In Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (S. 139-151) gibt Jiri Panyr (München/Saarbrücken) eine gut lesbare und nützliche Übersicht über die im Titel des Beitrags genannten semantischen Repräsentationsformen, die im Zusammenhang mit dem Internet und insbesondere mit dem vorgeschlagenen Semantic Web immer wieder - und zwar häufig unpräzise oder gar unrichtig - Anwendung finden. Insbesondere die Ausführungen zum Modebegriff Ontologie zeigen, dass dieser nicht leichtfertig als Quasi-Synonym zu Thesaurus oder Klassifikation verwendet werden darf. Panyrs Beitrag ist übrigens thematisch verwandt mit jenem von K.-D. Schmitz (Köln), Wörterbuch, Thesaurus, Terminologie, Ontologie (S. 129-137). Abgesehen von dem einfallslosen Titel Wer suchet, der findet? (S. 107- 118) - zum Glück mit dem Untertitel Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek versehen - handelt es sich bei diesem Artikel von Elisabeth Niggemann (Frankfurt am Main) zwar um keinen wissenschaftlichen, doch sicherlich den praktischsten, lesbarsten und aus bibliothekarischer Sicht interessantesten des Buches. Niggemann gibt einen Überblick über die bisherige sachliche Erschliessung der bibliographischen Daten der inzwischen zur Deutschen Nationalbibliothek mutierten DDB, sowie einen Statusbericht nebst Ausblick über gegenwärtige bzw. geplante Verbesserungen der inhaltlichen Suche. Dazu zählen der breite Einsatz eines automatischen Indexierungsverfahrens (MILOS/IDX) ebenso wie Aktivitäten im klassifikatorischen Bereich (DDC), die Vernetzung nationaler Schlagwortsysteme (Projekt MACS) sowie die Beschäftigung mit Crosskonkordanzen (CARMEN) und Ansätzen zur Heterogenitätsbehandlung. Das hier von zentraler Stelle deklarierte "commitment" hinsichtlich der Verbesserung der sachlichen Erschließung des nationalen Online-Informationssystems erfüllt den eher nur Kleinmut und Gleichgültigkeit gewohnten phäakischen Beobachter mit Respekt und wehmutsvollem Neid.
    Mit automatischer Indexierung beschäftigen sich auch zwei weitere Beiträge. Indexieren mit AUTINDEX von H.-D. Mass (Saarbrücken) ist leider knapp und ohne didaktische Ambition verfasst, sodass man sich nicht wirklich vorstellen kann, wie dieses System funktioniert. Übersichtlicher stellt sich der Werkstattbericht Automatische Indexierung des Reallexikons zur deutschen Kunstgeschichte von K. Lepsky (Köln) dar, der zeigt, welche Probleme und Schritte bei der Digitalisierung, Indexierung und Web-Präsentation der Volltexte eines grossen fachlichen Nachschlagewerkes anfallen. Weitere interessante Beiträge befassen sich z.B. mit Summarizing-Leistungen im Rahmen eines e-Learning-Projektes (R. Kuhlen), mit dem Schalenmodell und dem Semantischen Web (J. Krause; aus nicht näher dargelegten Gründen in englischer Sprache) und mit der Akkreditierung/ Evaluierung von Hochschullehre und -forschung in Großbritannien (T. Seeger). In Summe liegt hier eine würdige Festschrift vor, über die sich der Gefeierte sicherlich gefreut haben wird. Für informationswissenschaftliche Spezialsammlungen und größere Bibliotheken ist der Band allemal eine Bereicherung. Ein Wermutstropfen aber doch: Obzwar mit Information und Sprache ein optisch ansprechend gestaltetes Buch produziert wurde, enthüllt eine nähere Betrachtung leider allzu viele Druckfehler, mangelhafte Worttrennungen, unkorrigierte grammatikalische Fehler, sowie auch Inkonsistenzen bei Kursivdruck und Satzzeichen. Lektoren und Korrektoren sind, so muss man wieder einmal schmerzlich zur Kenntnis nehmen, ein aussterbender Berufsstand."
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
  11. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.04
    0.03735473 = product of:
      0.19922522 = sum of:
        0.031086797 = weight(_text_:und in 4018) [ClassicSimilarity], result of:
          0.031086797 = score(doc=4018,freq=14.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.51830536 = fieldWeight in 4018, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.084069215 = weight(_text_:informationswissenschaft in 4018) [ClassicSimilarity], result of:
          0.084069215 = score(doc=4018,freq=6.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.68963933 = fieldWeight in 4018, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.084069215 = weight(_text_:informationswissenschaft in 4018) [ClassicSimilarity], result of:
          0.084069215 = score(doc=4018,freq=6.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.68963933 = fieldWeight in 4018, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.1875 = coord(3/16)
    
    Abstract
    Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366
  12. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.04
    0.037342355 = product of:
      0.11949554 = sum of:
        0.032315575 = weight(_text_:buch in 734) [ClassicSimilarity], result of:
          0.032315575 = score(doc=734,freq=2.0), product of:
            0.12581798 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027061297 = queryNorm
            0.25684384 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.02077074 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.02077074 = score(doc=734,freq=16.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34630734 = fieldWeight in 734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.017165324 = product of:
          0.034330647 = sum of:
            0.034330647 = weight(_text_:grundlagen in 734) [ClassicSimilarity], result of:
              0.034330647 = score(doc=734,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.26473063 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
        0.040077824 = weight(_text_:theorie in 734) [ClassicSimilarity], result of:
          0.040077824 = score(doc=734,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.28603244 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.0091660805 = product of:
          0.018332161 = sum of:
            0.018332161 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.018332161 = score(doc=734,freq=2.0), product of:
                0.094764054 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027061297 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  13. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.04
    0.03719158 = product of:
      0.14876632 = sum of:
        0.027866872 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.027866872 = score(doc=5981,freq=20.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.03640303 = weight(_text_:informationswissenschaft in 5981) [ClassicSimilarity], result of:
          0.03640303 = score(doc=5981,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.03640303 = weight(_text_:informationswissenschaft in 5981) [ClassicSimilarity], result of:
          0.03640303 = score(doc=5981,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.04809339 = weight(_text_:theorie in 5981) [ClassicSimilarity], result of:
          0.04809339 = score(doc=5981,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.34323892 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
      0.25 = coord(4/16)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  14. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.04
    0.036689624 = product of:
      0.1174068 = sum of:
        0.02492489 = weight(_text_:und in 6069) [ClassicSimilarity], result of:
          0.02492489 = score(doc=6069,freq=36.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.41556883 = fieldWeight in 6069, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.011882282 = product of:
          0.023764564 = sum of:
            0.023764564 = weight(_text_:bibliothekswesen in 6069) [ClassicSimilarity], result of:
              0.023764564 = score(doc=6069,freq=2.0), product of:
                0.12063039 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027061297 = queryNorm
                0.19700313 = fieldWeight in 6069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6069)
          0.5 = coord(1/2)
        0.024268689 = weight(_text_:informationswissenschaft in 6069) [ClassicSimilarity], result of:
          0.024268689 = score(doc=6069,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.1990817 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.024268689 = weight(_text_:informationswissenschaft in 6069) [ClassicSimilarity], result of:
          0.024268689 = score(doc=6069,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.1990817 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.03206226 = weight(_text_:theorie in 6069) [ClassicSimilarity], result of:
          0.03206226 = score(doc=6069,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.22882594 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.3125 = coord(5/16)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  15. Sparck Jones, K.; Kay, M.: Linguistik und Informationswissenschaft (1976) 0.04
    0.03645217 = product of:
      0.19441158 = sum of:
        0.02627314 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.02627314 = score(doc=3,freq=10.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.438048 = fieldWeight in 3, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.084069215 = weight(_text_:informationswissenschaft in 3) [ClassicSimilarity], result of:
          0.084069215 = score(doc=3,freq=6.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.68963933 = fieldWeight in 3, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.084069215 = weight(_text_:informationswissenschaft in 3) [ClassicSimilarity], result of:
          0.084069215 = score(doc=3,freq=6.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.68963933 = fieldWeight in 3, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.1875 = coord(3/16)
    
    Abstract
    Diese Arbeit befaßt sich mit den sprachlichen Aspekten der Informationswissenschaft, insbesondere mit den sprachlichen Komponenten der Analyse, der beschreibung und dem Retrieval von Dokumenten. Dabei wird erforscht, welche linguistischen Verfahren und Theorien von der Informationswissenschaft genützt werden können. Unter anderem werden untersucht die Anwendung der Sprachtheorie auf die Struktur der Erkenntnis, die Verwertung der Phonologie, Morphologie, Syntax und Semantik in der Organisation, der Speicherung und in der Überbringung von Informationen
  16. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.04
    0.03562126 = product of:
      0.14248504 = sum of:
        0.021585587 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.021585587 = score(doc=5964,freq=12.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.03640303 = weight(_text_:informationswissenschaft in 5964) [ClassicSimilarity], result of:
          0.03640303 = score(doc=5964,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.03640303 = weight(_text_:informationswissenschaft in 5964) [ClassicSimilarity], result of:
          0.03640303 = score(doc=5964,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.04809339 = weight(_text_:theorie in 5964) [ClassicSimilarity], result of:
          0.04809339 = score(doc=5964,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.34323892 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.25 = coord(4/16)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  17. Hahn, U.: Automatische Sprachverarbeitung (2023) 0.03
    0.034872003 = product of:
      0.13948801 = sum of:
        0.020561984 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.020561984 = score(doc=790,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34282678 = fieldWeight in 790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.042470206 = weight(_text_:informationswissenschaft in 790) [ClassicSimilarity], result of:
          0.042470206 = score(doc=790,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.042470206 = weight(_text_:informationswissenschaft in 790) [ClassicSimilarity], result of:
          0.042470206 = score(doc=790,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.03398561 = product of:
          0.06797122 = sum of:
            0.06797122 = weight(_text_:grundlagen in 790) [ClassicSimilarity], result of:
              0.06797122 = score(doc=790,freq=4.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.52413994 = fieldWeight in 790, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=790)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  18. Siegel, M.: Maschinelle Übersetzung (2023) 0.03
    0.034072246 = product of:
      0.13628899 = sum of:
        0.011749705 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.011749705 = score(doc=792,freq=2.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.19590102 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.048537377 = weight(_text_:informationswissenschaft in 792) [ClassicSimilarity], result of:
          0.048537377 = score(doc=792,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.048537377 = weight(_text_:informationswissenschaft in 792) [ClassicSimilarity], result of:
          0.048537377 = score(doc=792,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.02746452 = product of:
          0.05492904 = sum of:
            0.05492904 = weight(_text_:grundlagen in 792) [ClassicSimilarity], result of:
              0.05492904 = score(doc=792,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.42356902 = fieldWeight in 792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0625 = fieldNorm(doc=792)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Rahmstorf, G.: Rückkehr von Ordnung in die Informationstechnik? (2000) 0.03
    0.03278234 = product of:
      0.17483914 = sum of:
        0.029227024 = weight(_text_:und in 5504) [ClassicSimilarity], result of:
          0.029227024 = score(doc=5504,freq=22.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.48729765 = fieldWeight in 5504, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.07280606 = weight(_text_:informationswissenschaft in 5504) [ClassicSimilarity], result of:
          0.07280606 = score(doc=5504,freq=8.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.5972451 = fieldWeight in 5504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.07280606 = weight(_text_:informationswissenschaft in 5504) [ClassicSimilarity], result of:
          0.07280606 = score(doc=5504,freq=8.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.5972451 = fieldWeight in 5504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
      0.1875 = coord(3/16)
    
    Abstract
    Im Zuge der aktuellen Informationstechnik, der weltweiten Kommunikation und des elektronischen Publizierens scheinen die herkömmlichen Instrumente der Ordnungsstiftung - bibliothekarische Klassifikationssysteme und Thesauren - an den Rand gedrängt zu werden oder sogar ganz zu verschwinden. Andererseits sind die Endbenutzer oft unzufrieden mit dem Ergebnis des Recherchierens im Bestand des unabsehbar wachsenden Informationsangebotes. Ist eine präzise und vollständige Recherche bei den gegebenen technischen und Ökonomischen Verhältnissen überhaupt noch realisierbar'?
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  20. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.03
    0.032376867 = product of:
      0.12950747 = sum of:
        0.019429248 = weight(_text_:und in 799) [ClassicSimilarity], result of:
          0.019429248 = score(doc=799,freq=14.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.32394084 = fieldWeight in 799, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.04290139 = weight(_text_:informationswissenschaft in 799) [ClassicSimilarity], result of:
          0.04290139 = score(doc=799,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.35193008 = fieldWeight in 799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.04290139 = weight(_text_:informationswissenschaft in 799) [ClassicSimilarity], result of:
          0.04290139 = score(doc=799,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.35193008 = fieldWeight in 799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.024275437 = product of:
          0.048550874 = sum of:
            0.048550874 = weight(_text_:grundlagen in 799) [ClassicSimilarity], result of:
              0.048550874 = score(doc=799,freq=4.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.37438568 = fieldWeight in 799, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=799)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Languages

  • d 198
  • e 57
  • m 4
  • ru 1
  • More… Less…

Types

  • a 185
  • m 44
  • el 35
  • s 16
  • x 10
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications