Search (292 results, page 1 of 15)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.08
    0.077724025 = product of:
      0.23317206 = sum of:
        0.05478778 = product of:
          0.16436334 = sum of:
            0.16436334 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16436334 = score(doc=562,freq=2.0), product of:
                0.29245207 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03449536 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16436334 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16436334 = score(doc=562,freq=2.0), product of:
            0.29245207 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03449536 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.014020935 = product of:
          0.02804187 = sum of:
            0.02804187 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.02804187 = score(doc=562,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.05
    0.04870025 = product of:
      0.21915112 = sum of:
        0.05478778 = product of:
          0.16436334 = sum of:
            0.16436334 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.16436334 = score(doc=862,freq=2.0), product of:
                0.29245207 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03449536 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.16436334 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16436334 = score(doc=862,freq=2.0), product of:
            0.29245207 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03449536 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.22222222 = coord(2/9)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Deutsche Forschungsgemeinschaft: Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG (2023) 0.05
    0.0478854 = product of:
      0.21548429 = sum of:
        0.17879708 = weight(_text_:forschungsgemeinschaft in 991) [ClassicSimilarity], result of:
          0.17879708 = score(doc=991,freq=4.0), product of:
            0.22212915 = queryWeight, product of:
              6.439392 = idf(docFreq=191, maxDocs=44218)
              0.03449536 = queryNorm
            0.804924 = fieldWeight in 991, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.439392 = idf(docFreq=191, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.03668721 = weight(_text_:und in 991) [ClassicSimilarity], result of:
          0.03668721 = score(doc=991,freq=12.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.47985753 = fieldWeight in 991, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
      0.22222222 = coord(2/9)
    
    Abstract
    Die Einsatzmöglichkeiten von "Künstlicher Intelligenz" (KI) beschäftigen derzeit große Teile der Gesellschaft. Anlass ist insbesondere die Entwicklung generativer Modelle für die Text- und Bilderstellung wie "ChatGPT" und "DALL-E", die eine Interaktion zwischen Mensch und technischem System in gesprochener oder Text-/Bildsprache ermöglichen, und ihre Bereitstellung für die Allgemeinheit.
  4. Vichot, F.; Wolinksi, F.; Tomeh, J.; Guennou, S.; Dillet, B.; Aydjian, S.: High precision hypertext navigation based on NLP automation extractions (1997) 0.04
    0.04311312 = product of:
      0.12933935 = sum of:
        0.034250636 = product of:
          0.1027519 = sum of:
            0.1027519 = weight(_text_:f in 733) [ClassicSimilarity], result of:
              0.1027519 = score(doc=733,freq=4.0), product of:
                0.13749112 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03449536 = queryNorm
                0.74733484 = fieldWeight in 733, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=733)
          0.33333334 = coord(1/3)
        0.022466235 = weight(_text_:und in 733) [ClassicSimilarity], result of:
          0.022466235 = score(doc=733,freq=2.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.29385152 = fieldWeight in 733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=733)
        0.072622485 = product of:
          0.14524497 = sum of:
            0.14524497 = weight(_text_:informationssysteme in 733) [ClassicSimilarity], result of:
              0.14524497 = score(doc=733,freq=2.0), product of:
                0.1943962 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.03449536 = queryNorm
                0.74715954 = fieldWeight in 733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.09375 = fieldNorm(doc=733)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  5. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.04
    0.039640952 = product of:
      0.17838427 = sum of:
        0.16436334 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16436334 = score(doc=563,freq=2.0), product of:
            0.29245207 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03449536 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.014020935 = product of:
          0.02804187 = sum of:
            0.02804187 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.02804187 = score(doc=563,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  6. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.029857052 = product of:
      0.089571156 = sum of:
        0.020182382 = product of:
          0.060547143 = sum of:
            0.060547143 = weight(_text_:f in 190) [ClassicSimilarity], result of:
              0.060547143 = score(doc=190,freq=8.0), product of:
                0.13749112 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03449536 = queryNorm
                0.4403713 = fieldWeight in 190, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
        0.057704657 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.057704657 = score(doc=190,freq=76.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.011684113 = product of:
          0.023368226 = sum of:
            0.023368226 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.023368226 = score(doc=190,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Spr F 510
    Spr F 87 / Lexikographie
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    SBB
    Spr F 510
    Spr F 87 / Lexikographie
    Series
    Sprache und Information ; 33
  7. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.02
    0.019370133 = product of:
      0.087165594 = sum of:
        0.061223816 = weight(_text_:bibliotheken in 2818) [ClassicSimilarity], result of:
          0.061223816 = score(doc=2818,freq=4.0), product of:
            0.1299827 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.03449536 = queryNorm
            0.47101513 = fieldWeight in 2818, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.025941776 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.025941776 = score(doc=2818,freq=6.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.22222222 = coord(2/9)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  8. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.02
    0.018941576 = product of:
      0.085237086 = sum of:
        0.060119074 = weight(_text_:wissenschaftliche in 881) [ClassicSimilarity], result of:
          0.060119074 = score(doc=881,freq=2.0), product of:
            0.1768717 = queryWeight, product of:
              5.1274056 = idf(docFreq=712, maxDocs=44218)
              0.03449536 = queryNorm
            0.33990216 = fieldWeight in 881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1274056 = idf(docFreq=712, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.025118016 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.025118016 = score(doc=881,freq=10.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
      0.22222222 = coord(2/9)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
  9. Rieger, F.: Lügende Computer (2023) 0.02
    0.018673953 = product of:
      0.056021854 = sum of:
        0.016145905 = product of:
          0.048437715 = sum of:
            0.048437715 = weight(_text_:f in 912) [ClassicSimilarity], result of:
              0.048437715 = score(doc=912,freq=2.0), product of:
                0.13749112 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03449536 = queryNorm
                0.35229704 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.33333334 = coord(1/3)
        0.021181371 = weight(_text_:und in 912) [ClassicSimilarity], result of:
          0.021181371 = score(doc=912,freq=4.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.27704588 = fieldWeight in 912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.01869458 = product of:
          0.03738916 = sum of:
            0.03738916 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.03738916 = score(doc=912,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Abstract
    Wir leben gerade in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen "AI"-Systemen, die driften, halluzinieren, lügen und fabulieren können. Schon heute ist die Komplexität moderner Softwaresysteme so hoch, dass es kühn wäre, von striktem Determinismus zu sprechen, jedoch sind auch komplexe Algorithmen darauf angelegt, bei gleichen Eingabedaten gleiche Ergebnisse zu produzieren. Eine Ausnahme sind heute schon Algorithmen, die Zufallszahlen als Teil ihrer Eingabeparameter beinhalten oder neuronale Netze.
    Date
    16. 3.2023 19:22:55
  10. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.02
    0.016896406 = product of:
      0.07603383 = sum of:
        0.055312525 = weight(_text_:forschungsgemeinschaft in 5912) [ClassicSimilarity], result of:
          0.055312525 = score(doc=5912,freq=2.0), product of:
            0.22212915 = queryWeight, product of:
              6.439392 = idf(docFreq=191, maxDocs=44218)
              0.03449536 = queryNorm
            0.24901065 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.439392 = idf(docFreq=191, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.020721305 = weight(_text_:und in 5912) [ClassicSimilarity], result of:
          0.020721305 = score(doc=5912,freq=20.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.27102837 = fieldWeight in 5912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.22222222 = coord(2/9)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  11. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.02
    0.016655004 = product of:
      0.07494751 = sum of:
        0.046864722 = weight(_text_:bibliotheken in 3206) [ClassicSimilarity], result of:
          0.046864722 = score(doc=3206,freq=6.0), product of:
            0.1299827 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.03449536 = queryNorm
            0.36054584 = fieldWeight in 3206, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
        0.028082794 = weight(_text_:und in 3206) [ClassicSimilarity], result of:
          0.028082794 = score(doc=3206,freq=18.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.3673144 = fieldWeight in 3206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
      0.22222222 = coord(2/9)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  12. Schneider, J.W.; Borlund, P.: ¬A bibliometric-based semiautomatic approach to identification of candidate thesaurus terms : parsing and filtering of noun phrases from citation contexts (2005) 0.01
    0.014530243 = product of:
      0.04359073 = sum of:
        0.014127667 = product of:
          0.042383 = sum of:
            0.042383 = weight(_text_:f in 156) [ClassicSimilarity], result of:
              0.042383 = score(doc=156,freq=2.0), product of:
                0.13749112 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03449536 = queryNorm
                0.3082599 = fieldWeight in 156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=156)
          0.33333334 = coord(1/3)
        0.013105304 = weight(_text_:und in 156) [ClassicSimilarity], result of:
          0.013105304 = score(doc=156,freq=2.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.17141339 = fieldWeight in 156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=156)
        0.016357757 = product of:
          0.032715514 = sum of:
            0.032715514 = weight(_text_:22 in 156) [ClassicSimilarity], result of:
              0.032715514 = score(doc=156,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.2708308 = fieldWeight in 156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=156)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Date
    8. 3.2007 19:55:22
    Source
    Context: nature, impact and role. 5th International Conference an Conceptions of Library and Information Sciences, CoLIS 2005 Glasgow, UK, June 2005. Ed. by F. Crestani u. I. Ruthven
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.01
    0.014454006 = product of:
      0.043362018 = sum of:
        0.008072953 = product of:
          0.024218857 = sum of:
            0.024218857 = weight(_text_:f in 4217) [ClassicSimilarity], result of:
              0.024218857 = score(doc=4217,freq=2.0), product of:
                0.13749112 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03449536 = queryNorm
                0.17614852 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
        0.025941776 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.025941776 = score(doc=4217,freq=24.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.33931053 = fieldWeight in 4217, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.00934729 = product of:
          0.01869458 = sum of:
            0.01869458 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.01869458 = score(doc=4217,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  14. Mengel, T.: Wie viel Terminologiearbeit steckt in der Übersetzung der Dewey-Dezimalklassifikation? (2019) 0.01
    0.013329831 = product of:
      0.059984237 = sum of:
        0.03246883 = weight(_text_:bibliotheken in 5603) [ClassicSimilarity], result of:
          0.03246883 = score(doc=5603,freq=2.0), product of:
            0.1299827 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.03449536 = queryNorm
            0.24979347 = fieldWeight in 5603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.046875 = fieldNorm(doc=5603)
        0.027515406 = weight(_text_:und in 5603) [ClassicSimilarity], result of:
          0.027515406 = score(doc=5603,freq=12.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.35989314 = fieldWeight in 5603, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5603)
      0.22222222 = coord(2/9)
    
    Abstract
    Bibliotheken weltweit setzen die Dewey-Dezimalklassifikation (DDC) als Aufstellungssystematik und/oder zur Katalogsuche ein. Es existieren Übersetzungen der DDC in über 30 Sprachen. Als ein umfassendes System zur Ordnung von Wissen bestehend aus numerischen Notationen und sprachlichen Klasseninhalten bietet die DDC dem Terminologen bzw. der Terminologin ein weites Arbeits- und Forschungsfeld. Aber wie spielen Terminologiearbeit und Übersetzung zusammen, wenn, wie in diesem Fall, die Terminologie selbst das Übersetzungsobjekt ist? Der Aufsatz kann nicht alle Themen erschöpfend behandeln, aber er präsentiert Merkmale der DDC erstmals aus der Perspektive der DDC-Übersetzungsarbeit, und er wirft die Frage auf, ob dem Aspekt der Terminologiearbeit in der DDC-Übersetzung bislang tatsächlich genügend Aufmerksamkeit geschenkt wurde.
    Series
    Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
  15. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.01
    0.012307065 = product of:
      0.05538179 = sum of:
        0.03668721 = weight(_text_:und in 1490) [ClassicSimilarity], result of:
          0.03668721 = score(doc=1490,freq=12.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.47985753 = fieldWeight in 1490, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.01869458 = product of:
          0.03738916 = sum of:
            0.03738916 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.03738916 = score(doc=1490,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  16. Latzer, F.-M.: Yo Computa! (1997) 0.01
    0.012103543 = product of:
      0.054465942 = sum of:
        0.028255334 = product of:
          0.084766 = sum of:
            0.084766 = weight(_text_:f in 6005) [ClassicSimilarity], result of:
              0.084766 = score(doc=6005,freq=2.0), product of:
                0.13749112 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03449536 = queryNorm
                0.6165198 = fieldWeight in 6005, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6005)
          0.33333334 = coord(1/3)
        0.026210608 = weight(_text_:und in 6005) [ClassicSimilarity], result of:
          0.026210608 = score(doc=6005,freq=2.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.34282678 = fieldWeight in 6005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6005)
      0.22222222 = coord(2/9)
    
    Abstract
    Leistungsfähige und preisgünstige PC-Software macht Sprachverarbeitung nun auch als Standardanwendung für jeden interessant
  17. Hahn, U.: Informationslinguistik : I: Einführung in das linguistische Information Retrieval (1985) 0.01
    0.011606181 = product of:
      0.052227814 = sum of:
        0.028020319 = weight(_text_:und in 3115) [ClassicSimilarity], result of:
          0.028020319 = score(doc=3115,freq=28.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.36649725 = fieldWeight in 3115, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3115)
        0.024207495 = product of:
          0.04841499 = sum of:
            0.04841499 = weight(_text_:informationssysteme in 3115) [ClassicSimilarity], result of:
              0.04841499 = score(doc=3115,freq=2.0), product of:
                0.1943962 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.03449536 = queryNorm
                0.24905318 = fieldWeight in 3115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3115)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Als Bestandteil des Ausbildungsprogramms im Aufbaustudiun Informationswissenschaft an der Universitaet Konstanz (vgl. VOGEL 1984) ist ein Veranstaltungszyklus zur Informationslinguistik entwickelt worden. Die curriculare Planung zu diesem informationswissenschaftlichen Teilgebiet war stark eingebunden in die gesamte Organisation des Aufbaustudiums bzw. Diplomstudiengangs Informationswissenschaft, wobei insbesondere zwei Faktoren einen bestimmenden Einfluss auf die Definition der Lehrinhalte hatten: - die inhaltlichen Anforderungen des entwickelten Berufsbilds Informationsvermittlung und Informationsmanagemsnt - der zulaessige Zeitrahmen des Diplom-Studiengangs Informationswissenschaft (2 Jahre) und die nicht geringen Aufwaende fuer das uebrige Ausbildungsprogramm Die Informationslinguistik ist somit aus einer stark funktionalen Sicht heraus definiert worden, die den Leistungsbeitrag zur umfassenden informationswissenschaftlichen Ausbildung letztlich mehr betont als dis ziplinaere Eigendynamik. Die jetzt realisierte Verbindung aus obligatorischen und fakultativen Veranstaltungen zur Informationslinguistik erlaubt jedoch den an entsprechenden Fachfragen interessierten Studenten durchaus eine qualitativ ausreichende Vertiefung im Rahmen des informationswissenschaftlichen Lehrangebots, das ggf. noch durch Veranstaltungen der unterschiedlichen linguistischen Abteilungen an der Universitaet Konstanz ergaenzt werden kann. Schliesslich ist einer der Forschungsschwerpunkte des Lehrstuhls fuer Informationswissenschaft, das automatische Abstracting-Projekt TOPIC (HAHN/REIMER 1985), eindeutig dem Bereich Informationslinguistik zuzuordnen, der engagierten Studenten weitere Optionen fuer eine spezialisierte Ausbildung und - im Rahmen von durch Studien- und Diplomarbeiten klar abgesteckten Aufgaben - eigenstaendige Forschungs- und Entwicklungstaetigkeit eroeffnet. Informationslinguistik wird am Lehrstuhl fuer Informationswissenschaft der Universitaet Konstanz nun in folgender Konstellation gelehrt:
    (1) "Informationslinguistik I: Einfuehrung in das linguistische Information Retrieval" (2) "Informationslinguistik II: linguistische und statistische Verfahren im experimentellen Information Retrieval" (3) "Intelligente Informationssysteme: Verfahren der Kuenstlichen Intelligenz im experimentellen Information Retrieval" Kursabschnitt zu natuerlichsprachlichen Systemen (4) Spezialkurse zum automatischen Uebersetzen, Indexing und Retrieval, Abstracting usf. dienen zur Vertiefung informationslinguistischer Spezialthemen Die Kurse (1) und (3) gehoeren zu dem Pool der Pflichtveranstaltungen aller Studenten des Diplom-Studiengangs Informationswissenschaft, waehrend (2) und (4) lediglich zu den Wahlpflichtveranstaltungen zaehlen, die aber obligatorisch fuer die Studenten des Diplomstudiengangs sind, die ihren Schwerpunkt (z.B. in Form der Diplomarbeit) im Bereich Informationslinguistik suchen - fuer alle anderen Studenten zaehlen diese Kurse zum Zusatz angebot an Lehrveranstaltungen.
    Das vorliegende Skript entspricht dem Inhalt des Kurses "Informationslinguistik I" im WS 1982/83. Es ist im Maerz 1983 inhaltlich abgeschlossen und im Januar 1985 lediglich redaktionell ueberarbeitet worden. Die Erstellung des Skripts entspricht einem dezidierten Auftrag des Projekts "Informationsvermittlung", der die Entwicklung geeigneter Lehrmaterialien zum informationswissenschaftlichen Aufbaustudium vorsah. Aufgrund des engen Projektzeitrahmens (1983-85) kann das Skript nicht in dem Masse voll ausgereift und ausformuliert sein, wie es gaengigen Standards entspraeche. Dennoch hat es sich in den jaehrlichen Neuauflagen des Kurses trotz wechselnder Dozenten als weitgehend stabiles inhaltliches Geruest bewaehrt. Nichtsdestotrotz sollte gerade die Veroeffentlichung des Skripts als Anregung dienen, kritische Ko mmentare, Anmerkungen und Ergaenzungen zu diesem curricularen Entwurf herauszufordern, um damit die weitere disziplinaere Klaerung der Informationslinguistik zu foerdern.
    Content
    2. Teil u.d.T.: Linguistische und statistische Verfahren im experimentellen Information Retrieval
  18. Byrne, C.C.; McCracken, S.A.: ¬An adaptive thesaurus employing semantic distance, relational inheritance and nominal compound interpretation for linguistic support of information retrieval (1999) 0.01
    0.011224023 = product of:
      0.050508104 = sum of:
        0.022466235 = weight(_text_:und in 4483) [ClassicSimilarity], result of:
          0.022466235 = score(doc=4483,freq=2.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.29385152 = fieldWeight in 4483, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4483)
        0.02804187 = product of:
          0.05608374 = sum of:
            0.05608374 = weight(_text_:22 in 4483) [ClassicSimilarity], result of:
              0.05608374 = score(doc=4483,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.46428138 = fieldWeight in 4483, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4483)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Date
    15. 3.2000 10:22:37
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  19. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.01
    0.011224023 = product of:
      0.050508104 = sum of:
        0.022466235 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.022466235 = score(doc=5429,freq=2.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.02804187 = product of:
          0.05608374 = sum of:
            0.05608374 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.05608374 = score(doc=5429,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Source
    c't. 2000, H.22, S.230-231
  20. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.010768682 = product of:
      0.048459068 = sum of:
        0.03210131 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.03210131 = score(doc=4184,freq=12.0), product of:
            0.07645438 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03449536 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.016357757 = product of:
          0.032715514 = sum of:
            0.032715514 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.032715514 = score(doc=4184,freq=2.0), product of:
                0.120796874 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03449536 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a

Authors

Years

Languages

  • d 195
  • e 87
  • f 6
  • m 4
  • ru 1
  • More… Less…

Types

  • a 217
  • m 44
  • el 36
  • s 17
  • x 10
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications