Search (244 results, page 1 of 13)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.18
    0.18163319 = product of:
      0.30272198 = sum of:
        0.07112973 = product of:
          0.21338919 = sum of:
            0.21338919 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.21338919 = score(doc=562,freq=2.0), product of:
                0.37968388 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.044784546 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.21338919 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.21338919 = score(doc=562,freq=2.0), product of:
            0.37968388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.044784546 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.018203063 = product of:
          0.036406126 = sum of:
            0.036406126 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.036406126 = score(doc=562,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.11
    0.113807574 = product of:
      0.28451893 = sum of:
        0.07112973 = product of:
          0.21338919 = sum of:
            0.21338919 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.21338919 = score(doc=862,freq=2.0), product of:
                0.37968388 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.044784546 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.21338919 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.21338919 = score(doc=862,freq=2.0), product of:
            0.37968388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.044784546 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.4 = coord(2/5)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Simanowski, R.: Wenn die Dinge anfangen zu sprechen : Chatbot LaMDA von Google (2022) 0.10
    0.101583414 = product of:
      0.25395852 = sum of:
        0.03491595 = weight(_text_:der in 864) [ClassicSimilarity], result of:
          0.03491595 = score(doc=864,freq=4.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34902605 = fieldWeight in 864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=864)
        0.21904258 = weight(_text_:dinge in 864) [ClassicSimilarity], result of:
          0.21904258 = score(doc=864,freq=2.0), product of:
            0.29797226 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.044784546 = queryNorm
            0.73511064 = fieldWeight in 864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.078125 = fieldNorm(doc=864)
      0.4 = coord(2/5)
    
    Abstract
    Dialoge sind in. Dieser Trend hat mit dem Chatbot LaMDA auch Google erreicht. Die Zukunft der Suchanfrage ist das Gespräch, das Gespräch mit dem Objekt der Neugier. Ob das wirklich eine gute Idee ist, fragt sich Medienphilosoph Roberto Simanowski.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.09
    0.092636906 = product of:
      0.23159225 = sum of:
        0.21338919 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.21338919 = score(doc=563,freq=2.0), product of:
            0.37968388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.044784546 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.018203063 = product of:
          0.036406126 = sum of:
            0.036406126 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.036406126 = score(doc=563,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.08
    0.08088486 = product of:
      0.20221214 = sum of:
        0.04888233 = weight(_text_:der in 4099) [ClassicSimilarity], result of:
          0.04888233 = score(doc=4099,freq=16.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.4886365 = fieldWeight in 4099, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
        0.1533298 = weight(_text_:dinge in 4099) [ClassicSimilarity], result of:
          0.1533298 = score(doc=4099,freq=2.0), product of:
            0.29797226 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.044784546 = queryNorm
            0.51457745 = fieldWeight in 4099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
      0.4 = coord(2/5)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  6. Bischoff, M.: Wie eine KI lernt, sich selbst zu erklären (2023) 0.08
    0.077994205 = product of:
      0.19498551 = sum of:
        0.019751444 = weight(_text_:der in 956) [ClassicSimilarity], result of:
          0.019751444 = score(doc=956,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.19743896 = fieldWeight in 956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
        0.17523406 = weight(_text_:dinge in 956) [ClassicSimilarity], result of:
          0.17523406 = score(doc=956,freq=2.0), product of:
            0.29797226 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.044784546 = queryNorm
            0.5880885 = fieldWeight in 956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
      0.4 = coord(2/5)
    
    Abstract
    Große Sprachmodelle wie ChatGPT und Co. neigen dazu, Dinge zu erfinden. Durch einen neuen Ansatz können die Systeme ihre Antworten nun erklären - zumindest teilweise. Vorstellung von Modulen (Luminous, AtMan), die die Zusammenstellung der Aussagen in den Antworten analysieren und erklären.
  7. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.05
    0.053133618 = product of:
      0.13283405 = sum of:
        0.06466524 = weight(_text_:der in 3510) [ClassicSimilarity], result of:
          0.06466524 = score(doc=3510,freq=28.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.6464053 = fieldWeight in 3510, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.068168804 = product of:
          0.13633761 = sum of:
            0.13633761 = weight(_text_:gesellschaft in 3510) [ClassicSimilarity], result of:
              0.13633761 = score(doc=3510,freq=8.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.6862151 = fieldWeight in 3510, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3510)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  8. Schwarz, C.: THESYS: Thesaurus Syntax System : a fully automatic thesaurus building aid (1988) 0.05
    0.05117005 = product of:
      0.12792513 = sum of:
        0.017282514 = weight(_text_:der in 1361) [ClassicSimilarity], result of:
          0.017282514 = score(doc=1361,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.17275909 = fieldWeight in 1361, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1361)
        0.11064262 = sum of:
          0.068168804 = weight(_text_:gesellschaft in 1361) [ClassicSimilarity], result of:
            0.068168804 = score(doc=1361,freq=2.0), product of:
              0.19868058 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.044784546 = queryNorm
              0.34310755 = fieldWeight in 1361, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1361)
          0.042473815 = weight(_text_:22 in 1361) [ClassicSimilarity], result of:
            0.042473815 = score(doc=1361,freq=2.0), product of:
              0.15682785 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044784546 = queryNorm
              0.2708308 = fieldWeight in 1361, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1361)
      0.4 = coord(2/5)
    
    Date
    6. 1.1999 10:22:07
    Source
    Wissensorganisation im Wandel: Dezimalklassifikation - Thesaurusfragen - Warenklassifikation. Proc. 11. Jahrestagung der Gesellschaft für Klassifikation, Aachen, 29.6.-1.7.1987. Hrsg.: H.-J. Hermes u. J. Hölzl
  9. Rolland, M.T.: ¬Ein semantikorientierter Ansatz im Bereich der Sprachverarbeitung (1995) 0.04
    0.043898467 = product of:
      0.109746166 = sum of:
        0.051315762 = weight(_text_:der in 4445) [ClassicSimilarity], result of:
          0.051315762 = score(doc=4445,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.5129615 = fieldWeight in 4445, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4445)
        0.058430403 = product of:
          0.11686081 = sum of:
            0.11686081 = weight(_text_:gesellschaft in 4445) [ClassicSimilarity], result of:
              0.11686081 = score(doc=4445,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.58818436 = fieldWeight in 4445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4445)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Source
    Angewandte Computerlinguistik: Vorträge im Rahmen der Jahrestagung 1995 der Gesellschaft für Linguistische Datenverarbeitung (GLDV) e.V., Regensburg, 30.-31.3.1995
  10. Rahmstorf, G.: Rückkehr von Ordnung in die Informationstechnik? (2000) 0.04
    0.04114846 = product of:
      0.10287115 = sum of:
        0.04444075 = weight(_text_:der in 5504) [ClassicSimilarity], result of:
          0.04444075 = score(doc=5504,freq=18.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.44423765 = fieldWeight in 5504, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.058430403 = product of:
          0.11686081 = sum of:
            0.11686081 = weight(_text_:gesellschaft in 5504) [ClassicSimilarity], result of:
              0.11686081 = score(doc=5504,freq=8.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.58818436 = fieldWeight in 5504, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5504)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Im Zuge der aktuellen Informationstechnik, der weltweiten Kommunikation und des elektronischen Publizierens scheinen die herkömmlichen Instrumente der Ordnungsstiftung - bibliothekarische Klassifikationssysteme und Thesauren - an den Rand gedrängt zu werden oder sogar ganz zu verschwinden. Andererseits sind die Endbenutzer oft unzufrieden mit dem Ergebnis des Recherchierens im Bestand des unabsehbar wachsenden Informationsangebotes. Ist eine präzise und vollständige Recherche bei den gegebenen technischen und Ökonomischen Verhältnissen überhaupt noch realisierbar'?
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  11. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.04
    0.036967333 = product of:
      0.092418335 = sum of:
        0.026705565 = weight(_text_:der in 3385) [ClassicSimilarity], result of:
          0.026705565 = score(doc=3385,freq=26.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.2669536 = fieldWeight in 3385, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.06571277 = weight(_text_:dinge in 3385) [ClassicSimilarity], result of:
          0.06571277 = score(doc=3385,freq=2.0), product of:
            0.29797226 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.044784546 = queryNorm
            0.22053319 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.4 = coord(2/5)
    
    Abstract
    Holländische Wissenschaftler glauben, mit der "normalisierten Google-Distanz" von Begriffen einer Künstlichen Intelligenz die Bedeutung von Worten automatisch lehren zu können
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
    Footnote
    Artikel in der ListeTelepolis vom 27.01.2005
  12. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.04
    0.036179055 = product of:
      0.090447634 = sum of:
        0.049131095 = weight(_text_:der in 5882) [ClassicSimilarity], result of:
          0.049131095 = score(doc=5882,freq=22.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.4911232 = fieldWeight in 5882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.04131654 = product of:
          0.08263308 = sum of:
            0.08263308 = weight(_text_:gesellschaft in 5882) [ClassicSimilarity], result of:
              0.08263308 = score(doc=5882,freq=4.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.41590917 = fieldWeight in 5882, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5882)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  13. Engerer, V.: Indexierungstheorie für Linguisten : zu einigen natürlichsprachlichen Zügen in künstlichen Indexsprachen (2014) 0.04
    0.03522303 = product of:
      0.08805757 = sum of:
        0.029627165 = weight(_text_:der in 3339) [ClassicSimilarity], result of:
          0.029627165 = score(doc=3339,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29615843 = fieldWeight in 3339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.058430403 = product of:
          0.11686081 = sum of:
            0.11686081 = weight(_text_:gesellschaft in 3339) [ClassicSimilarity], result of:
              0.11686081 = score(doc=3339,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.58818436 = fieldWeight in 3339, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3339)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Source
    Dialekte, Konzepte, Kontakte. Ergebnisse des Arbeitstreffens der Gesellschaft für Sprache und Sprachen, GeSuS e.V., 31. Mai - 1. Juni 2013 in Freiburg/Breisgau. Hrsg.: V. Schönenberger et al
  14. ¬Der Student aus dem Computer (2023) 0.03
    0.030815536 = product of:
      0.07703884 = sum of:
        0.034565028 = weight(_text_:der in 1079) [ClassicSimilarity], result of:
          0.034565028 = score(doc=1079,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34551817 = fieldWeight in 1079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1079)
        0.042473815 = product of:
          0.08494763 = sum of:
            0.08494763 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.08494763 = score(doc=1079,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Date
    27. 1.2023 16:22:55
  15. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.030149212 = product of:
      0.07537303 = sum of:
        0.04094258 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.04094258 = score(doc=5863,freq=22.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.03443045 = product of:
          0.0688609 = sum of:
            0.0688609 = weight(_text_:gesellschaft in 5863) [ClassicSimilarity], result of:
              0.0688609 = score(doc=5863,freq=4.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.346591 = fieldWeight in 5863, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Deutsche Forschungsgemeinschaft: Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG (2023) 0.03
    0.029265646 = product of:
      0.07316411 = sum of:
        0.034210507 = weight(_text_:der in 991) [ClassicSimilarity], result of:
          0.034210507 = score(doc=991,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34197432 = fieldWeight in 991, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=991)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 991) [ClassicSimilarity], result of:
              0.07790721 = score(doc=991,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=991)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Die Einsatzmöglichkeiten von "Künstlicher Intelligenz" (KI) beschäftigen derzeit große Teile der Gesellschaft. Anlass ist insbesondere die Entwicklung generativer Modelle für die Text- und Bilderstellung wie "ChatGPT" und "DALL-E", die eine Interaktion zwischen Mensch und technischem System in gesprochener oder Text-/Bildsprache ermöglichen, und ihre Bereitstellung für die Allgemeinheit.
  17. Ruge, G.; Schwarz, C.: ¬Die Leistungsfähigkeit von linguistischen Verfahren in der Massentextverarbeitung (1989) 0.03
    0.026754547 = product of:
      0.066886365 = sum of:
        0.02793276 = weight(_text_:der in 6969) [ClassicSimilarity], result of:
          0.02793276 = score(doc=6969,freq=4.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.27922085 = fieldWeight in 6969, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6969)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 6969) [ClassicSimilarity], result of:
              0.07790721 = score(doc=6969,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 6969, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6969)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Source
    Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
  18. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.03
    0.026413316 = product of:
      0.06603329 = sum of:
        0.029627165 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.029627165 = score(doc=4888,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.036406126 = product of:
          0.07281225 = sum of:
            0.07281225 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.07281225 = score(doc=4888,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  19. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.03
    0.026413316 = product of:
      0.06603329 = sum of:
        0.029627165 = weight(_text_:der in 5429) [ClassicSimilarity], result of:
          0.029627165 = score(doc=5429,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29615843 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.036406126 = product of:
          0.07281225 = sum of:
            0.07281225 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.07281225 = score(doc=5429,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Noch immer ist der menschliche Übersetzer dem Computer in sprachlicher Hinsicht überlegen. Zwar ist die Übersetzungssoftware besser geworden, aber die systembedingten Probleme bleiben
    Source
    c't. 2000, H.22, S.230-231
  20. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.03
    0.025057524 = product of:
      0.06264381 = sum of:
        0.04444075 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.04444075 = score(doc=1746,freq=18.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.018203063 = product of:
          0.036406126 = sum of:
            0.036406126 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.036406126 = score(doc=1746,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30

Authors

Years

Languages

  • d 186
  • e 55
  • m 4
  • More… Less…

Types

  • a 173
  • m 39
  • el 35
  • s 16
  • x 12
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications