Search (397 results, page 1 of 20)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.17
    0.1683399 = product of:
      0.57716537 = sum of:
        0.03550495 = product of:
          0.10651484 = sum of:
            0.10651484 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.10651484 = score(doc=562,freq=2.0), product of:
                0.1895221 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022354547 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.10651484 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10651484 = score(doc=562,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10651484 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10651484 = score(doc=562,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10651484 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10651484 = score(doc=562,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10651484 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10651484 = score(doc=562,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10651484 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10651484 = score(doc=562,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.009086197 = product of:
          0.018172394 = sum of:
            0.018172394 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.018172394 = score(doc=562,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.17
    0.16755229 = product of:
      0.57446504 = sum of:
        0.03550495 = product of:
          0.10651484 = sum of:
            0.10651484 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.10651484 = score(doc=862,freq=2.0), product of:
                0.1895221 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022354547 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.0063859066 = product of:
          0.019157719 = sum of:
            0.019157719 = weight(_text_:p in 862) [ClassicSimilarity], result of:
              0.019157719 = score(doc=862,freq=2.0), product of:
                0.08037606 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.022354547 = queryNorm
                0.23835106 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.10651484 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10651484 = score(doc=862,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10651484 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10651484 = score(doc=862,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10651484 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10651484 = score(doc=862,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10651484 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10651484 = score(doc=862,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10651484 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10651484 = score(doc=862,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.29166666 = coord(7/24)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
    Type
    p
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.14
    0.13541509 = product of:
      0.54166037 = sum of:
        0.10651484 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10651484 = score(doc=563,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10651484 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10651484 = score(doc=563,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10651484 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10651484 = score(doc=563,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10651484 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10651484 = score(doc=563,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10651484 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10651484 = score(doc=563,freq=2.0), product of:
            0.1895221 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022354547 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009086197 = product of:
          0.018172394 = sum of:
            0.018172394 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.018172394 = score(doc=563,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Schmidt, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft (2000) 0.07
    0.06848694 = product of:
      0.23481235 = sum of:
        0.018198915 = weight(_text_:und in 5559) [ClassicSimilarity], result of:
          0.018198915 = score(doc=5559,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3673144 = fieldWeight in 5559, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.06457064 = weight(_text_:methodik in 5559) [ClassicSimilarity], result of:
          0.06457064 = score(doc=5559,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.39945894 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.01339363 = weight(_text_:des in 5559) [ClassicSimilarity], result of:
          0.01339363 = score(doc=5559,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21635216 = fieldWeight in 5559, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.03201457 = weight(_text_:fragen in 5559) [ClassicSimilarity], result of:
          0.03201457 = score(doc=5559,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.28127325 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.023865042 = weight(_text_:der in 5559) [ClassicSimilarity], result of:
          0.023865042 = score(doc=5559,freq=30.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.47792363 = fieldWeight in 5559, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.06457064 = weight(_text_:methodik in 5559) [ClassicSimilarity], result of:
          0.06457064 = score(doc=5559,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.39945894 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.018198915 = weight(_text_:und in 5559) [ClassicSimilarity], result of:
          0.018198915 = score(doc=5559,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3673144 = fieldWeight in 5559, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
      0.29166666 = coord(7/24)
    
    Abstract
    Tonmaterial in Form von Audio- oder Videoaufnahmen spielt in Bereichen der Wissenschaft, die sich mit verbaler Interaktion beschäftigen, eine bedeutende Rolle. Solche Gebiete sind u,a. die Linguistik, Psychologie, Soziologie und Kriminalistik. Gegenstand der Untersuchung können dabei z.B. die Formen des sprachlichen Handelns und der Sprachvariation in Abhängigkeit von der Situation oder die Ausprägung und Entwicklung von Sprachunterschieden vor dem sozialen Hintergrund sein. Im Rahmen der Analyse eines Gesprächsverlaufs kann beispielsweise die Form der Rederechtsicherung von Interesse sein. In diesem Zusammenhang stellen sich Fragen wie z.B. "Wie bringen Gesprächsteilnehrner Gesprächsbeteiligte dazu, ihre Rede zu unterbrechen?" oder "Wie wehren Gesprächsteilnehmer Unterbrechungsversuche voll anderen Teilnehmern ab?". Denkbar ist hier u.a. nach dem Vorkommen von "ausreden lassen" zu suchen, wobei diese beiden Wörter nicht unbedingt nebeneinander auftreten müssen. Bei der Suche nach Stellen an denen ein Gesprächsteilnehmer Ansprüche oder Forderungen an einen Gesprächspartner stellt, können die flektierten Formen der Modalverben wie z.B. "müssen", "sollen" oder "dürfen" für die Anfrage wichtig sein, während Konnektiva wie "aber", "ja aber" oder "doch" auf oppositive Gesprächsabschnitte verweisen können. Näheres zur gesprächsanalytischen Methodik kann Deppermann (1999) und Brünner et al. (1999) entnommen werden. In dem Bereich der Linguistik, die den Gebrauch von gesprochener Sprache in offiziellen und privaten Situationen zum Gegenstand hat, sind u.a. auch Aussprachevarianten von großem Interesse. Von der Untersuchung der Sprachfärbungen erhofft man sich detaillierte Aussagen über die Sprechersituation und die regionale (König (1988)) und soziale Herkunft des Sprechers machen zu können. In der Kriminalistik wirken solche Ergebnisse unterstützend bei der Identifizierung von Personen
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  5. Krause, J.: Mensch-Maschine-Interaktion in natürlicher Sprache : Evaluierungsstudien zu praxisorientierten Frage-Antwort-Systemen und ihre Methodik (1982) 0.07
    0.06827305 = product of:
      0.40963832 = sum of:
        0.024021344 = weight(_text_:und in 8964) [ClassicSimilarity], result of:
          0.024021344 = score(doc=8964,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.4848303 = fieldWeight in 8964, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.1807978 = weight(_text_:methodik in 8964) [ClassicSimilarity], result of:
          0.1807978 = score(doc=8964,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            1.118485 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.1807978 = weight(_text_:methodik in 8964) [ClassicSimilarity], result of:
          0.1807978 = score(doc=8964,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            1.118485 = fieldWeight in 8964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
        0.024021344 = weight(_text_:und in 8964) [ClassicSimilarity], result of:
          0.024021344 = score(doc=8964,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.4848303 = fieldWeight in 8964, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=8964)
      0.16666667 = coord(4/24)
    
    Series
    Sprache und Information; 1
  6. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.06
    0.06375051 = product of:
      0.25500205 = sum of:
        0.016049935 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.016049935 = score(doc=2731,freq=14.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.091316685 = weight(_text_:methodik in 2731) [ClassicSimilarity], result of:
          0.091316685 = score(doc=2731,freq=4.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.56492025 = fieldWeight in 2731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.016403781 = weight(_text_:des in 2731) [ClassicSimilarity], result of:
          0.016403781 = score(doc=2731,freq=6.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.2649762 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.023865042 = weight(_text_:der in 2731) [ClassicSimilarity], result of:
          0.023865042 = score(doc=2731,freq=30.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.47792363 = fieldWeight in 2731, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.091316685 = weight(_text_:methodik in 2731) [ClassicSimilarity], result of:
          0.091316685 = score(doc=2731,freq=4.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.56492025 = fieldWeight in 2731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.016049935 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.016049935 = score(doc=2731,freq=14.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.25 = coord(6/24)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  7. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.05
    0.05064889 = product of:
      0.24311468 = sum of:
        0.009706088 = weight(_text_:und in 7072) [ClassicSimilarity], result of:
          0.009706088 = score(doc=7072,freq=2.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.19590102 = fieldWeight in 7072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
        0.10331303 = weight(_text_:methodik in 7072) [ClassicSimilarity], result of:
          0.10331303 = score(doc=7072,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.6391343 = fieldWeight in 7072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
        0.017076435 = weight(_text_:der in 7072) [ClassicSimilarity], result of:
          0.017076435 = score(doc=7072,freq=6.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.34197432 = fieldWeight in 7072, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
        0.10331303 = weight(_text_:methodik in 7072) [ClassicSimilarity], result of:
          0.10331303 = score(doc=7072,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.6391343 = fieldWeight in 7072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
        0.009706088 = weight(_text_:und in 7072) [ClassicSimilarity], result of:
          0.009706088 = score(doc=7072,freq=2.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.19590102 = fieldWeight in 7072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Methodik der 'Mehrschichtigen Erweiterung Semantischer Netze' (MultiNet) ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation sichern
    Footnote
    2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
  8. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.03263353 = product of:
      0.15664096 = sum of:
        0.037395217 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.037395217 = score(doc=190,freq=76.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.017428562 = weight(_text_:der in 190) [ClassicSimilarity], result of:
          0.017428562 = score(doc=190,freq=16.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.34902605 = fieldWeight in 190, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.056850143 = weight(_text_:allgemeines in 190) [ClassicSimilarity], result of:
          0.056850143 = score(doc=190,freq=4.0), product of:
            0.12754214 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.022354547 = queryNorm
            0.44573617 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.037395217 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.037395217 = score(doc=190,freq=76.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.0075718313 = product of:
          0.015143663 = sum of:
            0.015143663 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.015143663 = score(doc=190,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  9. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.03
    0.03014709 = product of:
      0.14470604 = sum of:
        0.014710008 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.014710008 = score(doc=5809,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.013259017 = weight(_text_:des in 5809) [ClassicSimilarity], result of:
          0.013259017 = score(doc=5809,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.2141777 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.08273712 = weight(_text_:speziellen in 5809) [ClassicSimilarity], result of:
          0.08273712 = score(doc=5809,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.5350185 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.019289885 = weight(_text_:der in 5809) [ClassicSimilarity], result of:
          0.019289885 = score(doc=5809,freq=10.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.38630107 = fieldWeight in 5809, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.014710008 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.014710008 = score(doc=5809,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.20833333 = coord(5/24)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  10. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.028281642 = product of:
      0.13575189 = sum of:
        0.016277606 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.016277606 = score(doc=6386,freq=10.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.011364872 = weight(_text_:des in 6386) [ClassicSimilarity], result of:
          0.011364872 = score(doc=6386,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.18358089 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.07091753 = weight(_text_:speziellen in 6386) [ClassicSimilarity], result of:
          0.07091753 = score(doc=6386,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.4585873 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020914275 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.020914275 = score(doc=6386,freq=16.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.016277606 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.016277606 = score(doc=6386,freq=10.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.20833333 = coord(5/24)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  11. Thomas, I.S.; Wang, J.; GPT-3: Was euch zu Menschen macht : Antworten einer künstlichen Intelligenz auf die großen Fragen des Lebens (2022) 0.03
    0.02822214 = product of:
      0.11288856 = sum of:
        0.012608579 = weight(_text_:und in 878) [ClassicSimilarity], result of:
          0.012608579 = score(doc=878,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2544829 = fieldWeight in 878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.011364872 = weight(_text_:des in 878) [ClassicSimilarity], result of:
          0.011364872 = score(doc=878,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.18358089 = fieldWeight in 878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.054330524 = weight(_text_:fragen in 878) [ClassicSimilarity], result of:
          0.054330524 = score(doc=878,freq=4.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.47733653 = fieldWeight in 878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.012807326 = weight(_text_:der in 878) [ClassicSimilarity], result of:
          0.012807326 = score(doc=878,freq=6.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.25648075 = fieldWeight in 878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
        0.009168675 = product of:
          0.01833735 = sum of:
            0.01833735 = weight(_text_:29 in 878) [ClassicSimilarity], result of:
              0.01833735 = score(doc=878,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.23319192 = fieldWeight in 878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=878)
          0.5 = coord(1/2)
        0.012608579 = weight(_text_:und in 878) [ClassicSimilarity], result of:
          0.012608579 = score(doc=878,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2544829 = fieldWeight in 878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=878)
      0.25 = coord(6/24)
    
    Abstract
    Das erste durch KI verfasste Weisheitsbuch. »Die Künstliche Intelligenz sieht den Menschen, wie er ist. Es gibt für sie keinen Gott, keine Rituale, keinen Himmel, keine Hölle, keine Engel. Es gibt für sie nur empfindsame Wesen.« GPT-3. Dieses Buch enthält Weisheitstexte, die durch die modernste KI im Bereich der Spracherkennung verfasst wurden. Es ist die GPT-3, die durch die Technikerin Jasmine Wang gesteuert wird. Die originären Texte von GPT-3 werden von dem international bekannten Dichter Iain S. Thomas kuratiert. Die Basis von GPT-3 reicht von den Weisheitsbücher der Menschheit bis hin zu modernen Texten. GPT-3 antwortet auf Fragen wie: Was macht den Mensch zum Menschen? Was bedeutet es zu lieben? Wie führen wir ein erfülltes Leben? etc. und ist in der Lage, eigene Sätze zu kreieren. So wird eine zeitgenössische und noch nie dagewesene Erforschung von Sinn und Spiritualität geschaffen, die zu einem neuen Verständnis dessen inspiriert, was uns zu Menschen macht.
    Date
    7. 1.2023 18:41:29
  12. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.03
    0.027337942 = product of:
      0.10935177 = sum of:
        0.013428339 = weight(_text_:und in 5912) [ClassicSimilarity], result of:
          0.013428339 = score(doc=5912,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27102837 = fieldWeight in 5912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.013259017 = weight(_text_:des in 5912) [ClassicSimilarity], result of:
          0.013259017 = score(doc=5912,freq=8.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.2141777 = fieldWeight in 5912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.04136856 = weight(_text_:speziellen in 5912) [ClassicSimilarity], result of:
          0.04136856 = score(doc=5912,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.26750925 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.017784394 = weight(_text_:der in 5912) [ClassicSimilarity], result of:
          0.017784394 = score(doc=5912,freq=34.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.35615197 = fieldWeight in 5912, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.013428339 = weight(_text_:und in 5912) [ClassicSimilarity], result of:
          0.013428339 = score(doc=5912,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27102837 = fieldWeight in 5912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
        0.01008312 = product of:
          0.02016624 = sum of:
            0.02016624 = weight(_text_:deutschland in 5912) [ClassicSimilarity], result of:
              0.02016624 = score(doc=5912,freq=2.0), product of:
                0.10797144 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022354547 = queryNorm
                0.18677385 = fieldWeight in 5912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5912)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  13. Abbe: Hoffnungen auf Verbesserung polizeilicher Texte durch Chatbot GPT : eine Statusaufnahme (2023) 0.03
    0.02687285 = product of:
      0.12898968 = sum of:
        0.013726482 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.013726482 = score(doc=865,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27704588 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.015153162 = weight(_text_:des in 865) [ClassicSimilarity], result of:
          0.015153162 = score(doc=865,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.24477452 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.0724407 = weight(_text_:fragen in 865) [ClassicSimilarity], result of:
          0.0724407 = score(doc=865,freq=4.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.6364487 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.01394285 = weight(_text_:der in 865) [ClassicSimilarity], result of:
          0.01394285 = score(doc=865,freq=4.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.27922085 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.013726482 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.013726482 = score(doc=865,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.27704588 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Hoffnungen an den Einsatz von künstlicher Intelligenz sind hoch, auch in der polizeilichen Informationstechnik. Geradezu einen Hype ausgelöst hat die Veröffentlichung des Chatbots GPT vor wenigen Wochen. Der verspricht eine Beantwortung von Fragen und die Erstellung von Texten quasi wie ein Mensch. Das wäre ein immenser Fortschritt für die vielen Texte in polizeilichen Informations­systemen. Wie belastbar diese Hoffnungen sind, habe ich mir in einem Test mit Fragen und Textaufgaben näher angesehen.
  14. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.03
    0.026536496 = product of:
      0.12737519 = sum of:
        0.018198915 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.018198915 = score(doc=3194,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.01339363 = weight(_text_:des in 3194) [ClassicSimilarity], result of:
          0.01339363 = score(doc=3194,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21635216 = fieldWeight in 3194, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.059097942 = weight(_text_:speziellen in 3194) [ClassicSimilarity], result of:
          0.059097942 = score(doc=3194,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.38215607 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.018485783 = weight(_text_:der in 3194) [ClassicSimilarity], result of:
          0.018485783 = score(doc=3194,freq=18.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.37019804 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.018198915 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.018198915 = score(doc=3194,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.20833333 = coord(5/24)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
    Content
    Schriftliche Hausarbeit (Masterarbeit) zur Erlangung des Grades eines Master of Arts An der Universität Trier Fachbereich II Studiengang Computerlinguistik.
  15. Helbig, H.; Gnörlich, C.; Leveling, J.: Natürlichsprachlicher Zugang zu Informationsanbietern im Internet und zu lokalen Datenbanken (2000) 0.03
    0.026102826 = product of:
      0.12529357 = sum of:
        0.017158102 = weight(_text_:und in 5558) [ClassicSimilarity], result of:
          0.017158102 = score(doc=5558,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 5558, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
        0.01339363 = weight(_text_:des in 5558) [ClassicSimilarity], result of:
          0.01339363 = score(doc=5558,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21635216 = fieldWeight in 5558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
        0.059097942 = weight(_text_:speziellen in 5558) [ClassicSimilarity], result of:
          0.059097942 = score(doc=5558,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.38215607 = fieldWeight in 5558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
        0.018485783 = weight(_text_:der in 5558) [ClassicSimilarity], result of:
          0.018485783 = score(doc=5558,freq=18.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.37019804 = fieldWeight in 5558, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
        0.017158102 = weight(_text_:und in 5558) [ClassicSimilarity], result of:
          0.017158102 = score(doc=5558,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 5558, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5558)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Schaffung eines natürlichsprachlichen Interfaces (NLI), (das einem Nutzer die Formulierung von Anfragen an Informationsanbieter in seiner Muttersprache erlaubt, stellt eine der interessantesten Herausforderungen im Bereich des Information-Retrieval und der Verarbeitung natürlicher Sprache dar. Dieser Beitrag beschreibt Methoden zur Obersetzung natürlichsprachlicher Anfragen in Ausdrücke formaler Retrievalsprachen sowohl für Informationsressourcen im Internet als auch für lokale Datenbanken. Die vorgestellten Methoden sind Teil das Informationsrecherchesystems LINAS, das an der Fernuniversität Hagen entwickelt wurde, um Nutzern einen natürlichsprachlichen Zugang zu lokalen und zu im Internet verteilten wissenschaftlichen und technischen Informationen anzubieten. Das LINAS-System unterscheidet sich von anderen Systemen und natürlichsprachlichen Interfaces (vgl. OSIRIS) oder die früheren Systeme INTELLECT, Q&A durch die explizite Einbeziehung von Hintergrundwissen und speziellen Dialogmodellen in den Übersetzungsprozeß. Darüber hinaus ist das System auf ein vollständiges Verstehen des natürlichsprachlichen Textes ausgerichtet, während andere Systeme typischerweise nur nach Stichworten oder bestimmten grammatikalischen Mustern in der Eingabe suchen. Ein besonderer Schwerpunkt von LINAS liegt in der Repräsentation und Auswertung der semantischen Relationen zwischen den in der Nutzeranfrage gegebenen Konzepten
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  16. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.03
    0.025962586 = product of:
      0.10385034 = sum of:
        0.01879576 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.01879576 = score(doc=877,freq=30.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.007576581 = weight(_text_:des in 877) [ClassicSimilarity], result of:
          0.007576581 = score(doc=877,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.12238726 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.03622035 = weight(_text_:fragen in 877) [ClassicSimilarity], result of:
          0.03622035 = score(doc=877,freq=4.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.31822434 = fieldWeight in 877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.01634944 = weight(_text_:der in 877) [ClassicSimilarity], result of:
          0.01634944 = score(doc=877,freq=22.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.32741547 = fieldWeight in 877, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.0061124503 = product of:
          0.012224901 = sum of:
            0.012224901 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.012224901 = score(doc=877,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.5 = coord(1/2)
        0.01879576 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.01879576 = score(doc=877,freq=30.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
      0.25 = coord(6/24)
    
    Abstract
    ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
    Source
    https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
  17. Rolland, M.T.: Sprachverarbeitung durch Logotechnik : Sprachtheorie, Methodik, Anwendungen (1994) 0.03
    0.025828257 = product of:
      0.3099391 = sum of:
        0.15496954 = weight(_text_:methodik in 5365) [ClassicSimilarity], result of:
          0.15496954 = score(doc=5365,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.95870143 = fieldWeight in 5365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.09375 = fieldNorm(doc=5365)
        0.15496954 = weight(_text_:methodik in 5365) [ClassicSimilarity], result of:
          0.15496954 = score(doc=5365,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.95870143 = fieldWeight in 5365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.09375 = fieldNorm(doc=5365)
      0.083333336 = coord(2/24)
    
  18. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.025692014 = product of:
      0.12332167 = sum of:
        0.017158102 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.017158102 = score(doc=5863,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.009470727 = weight(_text_:des in 5863) [ClassicSimilarity], result of:
          0.009470727 = score(doc=5863,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.15298408 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.059097942 = weight(_text_:speziellen in 5863) [ClassicSimilarity], result of:
          0.059097942 = score(doc=5863,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.38215607 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020436801 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.020436801 = score(doc=5863,freq=22.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.017158102 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.017158102 = score(doc=5863,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.20833333 = coord(5/24)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  19. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.02
    0.024192112 = product of:
      0.116122134 = sum of:
        0.016049935 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.016049935 = score(doc=1714,freq=14.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.01339363 = weight(_text_:des in 1714) [ClassicSimilarity], result of:
          0.01339363 = score(doc=1714,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21635216 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.013778488 = weight(_text_:der in 1714) [ClassicSimilarity], result of:
          0.013778488 = score(doc=1714,freq=10.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.27592933 = fieldWeight in 1714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.056850143 = weight(_text_:allgemeines in 1714) [ClassicSimilarity], result of:
          0.056850143 = score(doc=1714,freq=4.0), product of:
            0.12754214 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.022354547 = queryNorm
            0.44573617 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.016049935 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.016049935 = score(doc=1714,freq=14.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
      0.20833333 = coord(5/24)
    
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
  20. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.02
    0.02312229 = product of:
      0.11098699 = sum of:
        0.02302001 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.02302001 = score(doc=5981,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.016072355 = weight(_text_:des in 5981) [ClassicSimilarity], result of:
          0.016072355 = score(doc=5981,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.25962257 = fieldWeight in 5981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.03841748 = weight(_text_:fragen in 5981) [ClassicSimilarity], result of:
          0.03841748 = score(doc=5981,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.33752787 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.010457138 = weight(_text_:der in 5981) [ClassicSimilarity], result of:
          0.010457138 = score(doc=5981,freq=4.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.20941564 = fieldWeight in 5981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.02302001 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.02302001 = score(doc=5981,freq=20.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
      0.20833333 = coord(5/24)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker

Years

Languages

  • d 223
  • e 153
  • ru 12
  • m 5
  • f 3
  • slv 1
  • More… Less…

Types

  • a 297
  • el 56
  • m 53
  • s 22
  • x 13
  • p 7
  • d 2
  • b 1
  • More… Less…

Subjects

Classifications