Search (362 results, page 1 of 19)

  • × type_ss:"a"
  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.24
    0.24411577 = product of:
      0.6238514 = sum of:
        0.037432037 = product of:
          0.11229611 = sum of:
            0.11229611 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.11229611 = score(doc=562,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0066664745 = product of:
          0.013332949 = sum of:
            0.013332949 = weight(_text_:1 in 562) [ClassicSimilarity], result of:
              0.013332949 = score(doc=562,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23029712 = fieldWeight in 562, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 562) [ClassicSimilarity], result of:
              0.017385917 = score(doc=562,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
        0.009579366 = product of:
          0.019158732 = sum of:
            0.019158732 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.019158732 = score(doc=562,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.39130434 = coord(9/23)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Source
    Proceedings of the 4th IEEE International Conference on Data Mining (ICDM 2004), 1-4 November 2004, Brighton, UK
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.18
    0.18371241 = product of:
      0.6036265 = sum of:
        0.037432037 = product of:
          0.11229611 = sum of:
            0.11229611 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.11229611 = score(doc=862,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 862) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=862,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.5 = coord(1/2)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3043478 = coord(7/23)
    
    Date
    1. 1.2023 17:48:50
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Schneider, R.: Question answering : das Retrieval der Zukunft? (2007) 0.03
    0.029522838 = product of:
      0.13580506 = sum of:
        0.02506539 = weight(_text_:und in 5953) [ClassicSimilarity], result of:
          0.02506539 = score(doc=5953,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.47985753 = fieldWeight in 5953, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.029269597 = product of:
          0.058539193 = sum of:
            0.058539193 = weight(_text_:bibliothekswesen in 5953) [ClassicSimilarity], result of:
              0.058539193 = score(doc=5953,freq=4.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.557209 = fieldWeight in 5953, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5953)
          0.5 = coord(1/2)
        0.058539193 = weight(_text_:bibliothekswesen in 5953) [ClassicSimilarity], result of:
          0.058539193 = score(doc=5953,freq=4.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.557209 = fieldWeight in 5953, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.016645677 = weight(_text_:im in 5953) [ClassicSimilarity], result of:
          0.016645677 = score(doc=5953,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 5953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.0062852125 = product of:
          0.012570425 = sum of:
            0.012570425 = weight(_text_:1 in 5953) [ClassicSimilarity], result of:
              0.012570425 = score(doc=5953,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2171262 = fieldWeight in 5953, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5953)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Der Artikel geht der Frage nach, ob und inwieweit Informations- und Recherchesysteme von der Technologie natürlich sprachlicher Frage-Antwortsysteme, so genannter Question Answering-Systeme, profitieren können. Nach einer allgemeinen Einführung in die Zielsetzung und die historische Entwicklung dieses Sonderzweigs der maschinellen Sprachverarbeitung werden dessen Abgrenzung von herkömmlichen Retrieval- und Extraktionsverfahren erläutert und die besondere Struktur von Question Answering-Systemen sowie einzelne Evaluierungsinitiativen aufgezeichnet. Zudem werden konkrete Anwendungsfelder im Bibliothekswesen vorgestellt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.3-11
  4. Rahmstorf, G.: Rückkehr von Ordnung in die Informationstechnik? (2000) 0.02
    0.019684039 = product of:
      0.11318322 = sum of:
        0.025454026 = weight(_text_:und in 5504) [ClassicSimilarity], result of:
          0.025454026 = score(doc=5504,freq=22.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.48729765 = fieldWeight in 5504, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.063407324 = weight(_text_:informationswissenschaft in 5504) [ClassicSimilarity], result of:
          0.063407324 = score(doc=5504,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.5972451 = fieldWeight in 5504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.017655406 = weight(_text_:im in 5504) [ClassicSimilarity], result of:
          0.017655406 = score(doc=5504,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.26501122 = fieldWeight in 5504, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.0066664745 = product of:
          0.013332949 = sum of:
            0.013332949 = weight(_text_:1 in 5504) [ClassicSimilarity], result of:
              0.013332949 = score(doc=5504,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23029712 = fieldWeight in 5504, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5504)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Im Zuge der aktuellen Informationstechnik, der weltweiten Kommunikation und des elektronischen Publizierens scheinen die herkömmlichen Instrumente der Ordnungsstiftung - bibliothekarische Klassifikationssysteme und Thesauren - an den Rand gedrängt zu werden oder sogar ganz zu verschwinden. Andererseits sind die Endbenutzer oft unzufrieden mit dem Ergebnis des Recherchierens im Bestand des unabsehbar wachsenden Informationsangebotes. Ist eine präzise und vollständige Recherche bei den gegebenen technischen und Ökonomischen Verhältnissen überhaupt noch realisierbar'?
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  5. Engerer, V.: Informationswissenschaft und Linguistik. : kurze Geschichte eines fruchtbaren interdisziplinäaren Verhäaltnisses in drei Akten (2012) 0.02
    0.01836402 = product of:
      0.105593115 = sum of:
        0.022154884 = weight(_text_:und in 3376) [ClassicSimilarity], result of:
          0.022154884 = score(doc=3376,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.42413816 = fieldWeight in 3376, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.052839436 = weight(_text_:informationswissenschaft in 3376) [ClassicSimilarity], result of:
          0.052839436 = score(doc=3376,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.49770427 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.016110536 = product of:
          0.03222107 = sum of:
            0.03222107 = weight(_text_:29 in 3376) [ClassicSimilarity], result of:
              0.03222107 = score(doc=3376,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.38865322 = fieldWeight in 3376, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3376)
          0.5 = coord(1/2)
        0.014488265 = product of:
          0.02897653 = sum of:
            0.02897653 = weight(_text_:international in 3376) [ClassicSimilarity], result of:
              0.02897653 = score(doc=3376,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.36856616 = fieldWeight in 3376, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3376)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Date
    19. 2.2017 13:29:08
    Source
    SDV - Sprache und Datenverarbeitung. International journal for language data processing. 36(2012) H.2, S.71-91 [= E-Books - Fakten, Perspektiven und Szenarien] 36/2 (2012), S. 71-91
  6. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.02
    0.01787195 = product of:
      0.08221097 = sum of:
        0.021707265 = weight(_text_:und in 6069) [ClassicSimilarity], result of:
          0.021707265 = score(doc=6069,freq=36.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 6069, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.010348365 = product of:
          0.02069673 = sum of:
            0.02069673 = weight(_text_:bibliothekswesen in 6069) [ClassicSimilarity], result of:
              0.02069673 = score(doc=6069,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19700313 = fieldWeight in 6069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6069)
          0.5 = coord(1/2)
        0.021135775 = weight(_text_:informationswissenschaft in 6069) [ClassicSimilarity], result of:
          0.021135775 = score(doc=6069,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.1990817 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.02069673 = weight(_text_:bibliothekswesen in 6069) [ClassicSimilarity], result of:
          0.02069673 = score(doc=6069,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.19700313 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.008322839 = weight(_text_:im in 6069) [ClassicSimilarity], result of:
          0.008322839 = score(doc=6069,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.12492748 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.2173913 = coord(5/23)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  7. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.02
    0.016384026 = product of:
      0.09420814 = sum of:
        0.023024032 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.023024032 = score(doc=5882,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.04483575 = weight(_text_:informationswissenschaft in 5882) [ClassicSimilarity], result of:
          0.04483575 = score(doc=5882,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.42231607 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.017655406 = weight(_text_:im in 5882) [ClassicSimilarity], result of:
          0.017655406 = score(doc=5882,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.26501122 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 5882) [ClassicSimilarity], result of:
              0.017385917 = score(doc=5882,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 5882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5882)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  8. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.02
    0.016151834 = product of:
      0.123830736 = sum of:
        0.027073715 = weight(_text_:und in 4018) [ClassicSimilarity], result of:
          0.027073715 = score(doc=4018,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.51830536 = fieldWeight in 4018, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.073216476 = weight(_text_:informationswissenschaft in 4018) [ClassicSimilarity], result of:
          0.073216476 = score(doc=4018,freq=6.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.68963933 = fieldWeight in 4018, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.023540542 = weight(_text_:im in 4018) [ClassicSimilarity], result of:
          0.023540542 = score(doc=4018,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.35334828 = fieldWeight in 4018, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.13043478 = coord(3/23)
    
    Abstract
    Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366
  9. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.02
    0.016140116 = product of:
      0.12374089 = sum of:
        0.09651335 = weight(_text_:buch in 5227) [ClassicSimilarity], result of:
          0.09651335 = score(doc=5227,freq=12.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.8807909 = fieldWeight in 5227, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
        0.012662571 = weight(_text_:und in 5227) [ClassicSimilarity], result of:
          0.012662571 = score(doc=5227,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.24241515 = fieldWeight in 5227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
        0.014564968 = weight(_text_:im in 5227) [ClassicSimilarity], result of:
          0.014564968 = score(doc=5227,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 5227, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.13043478 = coord(3/23)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
    Content
    Das Buch enthält eine Einleitung, in der die Vorgehensweise zur Erstellung des Buches geschildert wird.
    Source
    https://www.heise.de/newsticker/meldung/Erstes-wissenschaftliches-Buch-eines-Algorithmus-veroeffentlicht-4399858.html
  10. Sonnenberger, G.: Automatische Wissensakquisition aus Texten : Textparsing (1990) 0.02
    0.015437452 = product of:
      0.1183538 = sum of:
        0.015349354 = weight(_text_:und in 8428) [ClassicSimilarity], result of:
          0.015349354 = score(doc=8428,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 8428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=8428)
        0.0896715 = weight(_text_:informationswissenschaft in 8428) [ClassicSimilarity], result of:
          0.0896715 = score(doc=8428,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.84463215 = fieldWeight in 8428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=8428)
        0.013332949 = product of:
          0.026665898 = sum of:
            0.026665898 = weight(_text_:1 in 8428) [ClassicSimilarity], result of:
              0.026665898 = score(doc=8428,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.46059424 = fieldWeight in 8428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.09375 = fieldNorm(doc=8428)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Series
    Konstanzer Schriften zur Informationswissenschaft; Bd.1
    Source
    Pragmatische Aspekte beim Entwurf und Betrieb von Informationssystemen: Proc. 1. Int. Symposiums für Informationswissenschaft, Universität Konstanz, 17.-19.10.1990. Hrsg.: J. Herget u. R. Kuhlen
  11. Kummer, N.: Indexierungstechniken für das japanische Retrieval (2006) 0.02
    0.01531894 = product of:
      0.08808391 = sum of:
        0.022881467 = weight(_text_:und in 5979) [ClassicSimilarity], result of:
          0.022881467 = score(doc=5979,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 5979, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.04227155 = weight(_text_:informationswissenschaft in 5979) [ClassicSimilarity], result of:
          0.04227155 = score(doc=5979,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.3981634 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.016645677 = weight(_text_:im in 5979) [ClassicSimilarity], result of:
          0.016645677 = score(doc=5979,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.0062852125 = product of:
          0.012570425 = sum of:
            0.012570425 = weight(_text_:1 in 5979) [ClassicSimilarity], result of:
              0.012570425 = score(doc=5979,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2171262 = fieldWeight in 5979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5979)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Der vorliegende Artikel beschreibt die Herausforderungen, die die japanische Sprache aufgrund der besonderen Struktur ihres Schriftsystems an das Information Retrieval stellt und präsentiert Strategien und Ansätze für die Indexierung japanischer Dokumente. Im Besonderen soll auf die Effektivität aussprachebasierter (yomi-based) Indexierung sowie Fusion verschiedener einzelner Indexierungsansätze eingegangen werden.
    Date
    1. 9.2006 15:13:12
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.01
    0.013363476 = product of:
      0.07683998 = sum of:
        0.018799042 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.018799042 = score(doc=5964,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.031703662 = weight(_text_:informationswissenschaft in 5964) [ClassicSimilarity], result of:
          0.031703662 = score(doc=5964,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.02162337 = weight(_text_:im in 5964) [ClassicSimilarity], result of:
          0.02162337 = score(doc=5964,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 5964, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 5964) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=5964,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 5964, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5964)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Date
    1. 9.2006 15:24:33
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  13. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.01
    0.012725442 = product of:
      0.07317129 = sum of:
        0.02426946 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.02426946 = score(doc=5981,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.031703662 = weight(_text_:informationswissenschaft in 5981) [ClassicSimilarity], result of:
          0.031703662 = score(doc=5981,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.012484257 = weight(_text_:im in 5981) [ClassicSimilarity], result of:
          0.012484257 = score(doc=5981,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 5981) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=5981,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 5981, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5981)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Date
    1. 9.2006 15:24:53
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  14. Zimmermann, H.H.: Maschinelle und Computergestützte Übersetzung (2004) 0.01
    0.011174119 = product of:
      0.064251184 = sum of:
        0.015349354 = weight(_text_:und in 2943) [ClassicSimilarity], result of:
          0.015349354 = score(doc=2943,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 2943, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.031703662 = weight(_text_:informationswissenschaft in 2943) [ClassicSimilarity], result of:
          0.031703662 = score(doc=2943,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.012484257 = weight(_text_:im in 2943) [ClassicSimilarity], result of:
          0.012484257 = score(doc=2943,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 2943) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=2943,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 2943, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2943)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Unter Maschineller Übersetzung (Machine Translation, MT) wird im Folgenden die vollautomatische Übersetzung eines Textes in natürlicher Sprache in eine andere natürliche Sprache verstanden. Unter Human-Übersetzung (Human Translation, HT) wird die intellektuelle Übersetzung eines Textes mit oder ohne maschinelle lexikalische Hilfen mit oder ohne Textverarbeitung verstanden. Unter computergestützter bzw computerunterstützter Übersetzung (CAT) wird einerseits eine intellektuelle Übersetzung verstanden, die auf einer maschinellen Vorübersetzung/Rohübersetzung (MT) aufbaut, die nachfolgend intellektuell nachbereitet wird (Postedition); andererseits wird darunter eine intellektuelle Übersetzung verstanden, bei der vor oder während des intellektuellen Übersetzungsprozesses ein Translation Memory und/ oder eine Terminologie-Bank verwendet werden. Unter ICAT wird eine spezielle Variante von CAT verstanden, bei der ein Nutzer ohne (hinreichende) Kenntnis der Zielsprache bei einer Übersetzung aus seiner Muttersprache so unterstützt wird, dass das zielsprachige Äquivalent relativ fehlerfrei ist.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  15. Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012) 0.01
    0.010669395 = product of:
      0.081798695 = sum of:
        0.022881467 = weight(_text_:und in 555) [ClassicSimilarity], result of:
          0.022881467 = score(doc=555,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.04227155 = weight(_text_:informationswissenschaft in 555) [ClassicSimilarity], result of:
          0.04227155 = score(doc=555,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.3981634 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.016645677 = weight(_text_:im in 555) [ClassicSimilarity], result of:
          0.016645677 = score(doc=555,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
      0.13043478 = coord(3/23)
    
    Abstract
    In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.5, S.292-296
  16. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.01029664 = product of:
      0.059205677 = sum of:
        0.021932216 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.021932216 = score(doc=4184,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.020597974 = weight(_text_:im in 4184) [ClassicSimilarity], result of:
          0.020597974 = score(doc=4184,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 4184, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 4184) [ClassicSimilarity], result of:
              0.010999122 = score(doc=4184,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
        0.011175927 = product of:
          0.022351854 = sum of:
            0.022351854 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.022351854 = score(doc=4184,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  17. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.009583304 = product of:
      0.07347199 = sum of:
        0.018089388 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.018089388 = score(doc=5863,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.037363127 = weight(_text_:informationswissenschaft in 5863) [ClassicSimilarity], result of:
          0.037363127 = score(doc=5863,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.35193008 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.018019475 = weight(_text_:im in 5863) [ClassicSimilarity], result of:
          0.018019475 = score(doc=5863,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 5863, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.13043478 = coord(3/23)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  18. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.01
    0.009430914 = product of:
      0.072303675 = sum of:
        0.016921071 = weight(_text_:und in 799) [ClassicSimilarity], result of:
          0.016921071 = score(doc=799,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.32394084 = fieldWeight in 799, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.037363127 = weight(_text_:informationswissenschaft in 799) [ClassicSimilarity], result of:
          0.037363127 = score(doc=799,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.35193008 = fieldWeight in 799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.018019475 = weight(_text_:im in 799) [ClassicSimilarity], result of:
          0.018019475 = score(doc=799,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 799, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
      0.13043478 = coord(3/23)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Hahn, U.: Automatische Sprachverarbeitung (2023) 0.01
    0.00906002 = product of:
      0.06946015 = sum of:
        0.01790758 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.01790758 = score(doc=790,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.036987606 = weight(_text_:informationswissenschaft in 790) [ClassicSimilarity], result of:
          0.036987606 = score(doc=790,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.348393 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.014564968 = weight(_text_:im in 790) [ClassicSimilarity], result of:
          0.014564968 = score(doc=790,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
      0.13043478 = coord(3/23)
    
    Abstract
    Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Siegel, M.: Maschinelle Übersetzung (2023) 0.01
    0.0090195825 = product of:
      0.069150135 = sum of:
        0.010232903 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.010232903 = score(doc=792,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.19590102 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.04227155 = weight(_text_:informationswissenschaft in 792) [ClassicSimilarity], result of:
          0.04227155 = score(doc=792,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.3981634 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.016645677 = weight(_text_:im in 792) [ClassicSimilarity], result of:
          0.016645677 = score(doc=792,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
      0.13043478 = coord(3/23)
    
    Abstract
    Die maschinelle Übersetzung von Sprache ist ein Menschheitstraum, an dem nunmehr schon fast hundert Jahre geforscht wird. Maschinelle Übersetzung ermöglicht im Idealfall den Erhalt der diversen Sprachkulturen bei der gleichzeitigen Möglichkeit einer interkulturellen Verständigung. Die Forschung zur maschinellen Übersetzung ist dabei von Brüchen geprägt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Authors

Languages

  • e 194
  • d 156
  • ru 9
  • f 2
  • More… Less…

Types

  • el 31
  • p 1
  • More… Less…