Search (209 results, page 1 of 11)

  • × theme_ss:"Wissensrepräsentation"
  1. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.17
    0.17297891 = product of:
      0.47569197 = sum of:
        0.047569197 = product of:
          0.14270759 = sum of:
            0.14270759 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.14270759 = score(doc=400,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.14270759 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.14270759 = score(doc=400,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.14270759 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.14270759 = score(doc=400,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.14270759 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.14270759 = score(doc=400,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.36363637 = coord(4/11)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.16
    0.15830937 = product of:
      0.43535078 = sum of:
        0.031712797 = product of:
          0.095138386 = sum of:
            0.095138386 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.095138386 = score(doc=5820,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.134546 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.134546 = score(doc=5820,freq=4.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.134546 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.134546 = score(doc=5820,freq=4.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.134546 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.134546 = score(doc=5820,freq=4.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.36363637 = coord(4/11)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.12
    0.11531925 = product of:
      0.31712794 = sum of:
        0.031712797 = product of:
          0.095138386 = sum of:
            0.095138386 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.095138386 = score(doc=701,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.095138386 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.095138386 = score(doc=701,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.095138386 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.095138386 = score(doc=701,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.095138386 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.095138386 = score(doc=701,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.36363637 = coord(4/11)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  4. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.04
    0.038992055 = product of:
      0.2144563 = sum of:
        0.022988264 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.022988264 = score(doc=5576,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.19146805 = sum of:
          0.15088937 = weight(_text_:intelligenz in 5576) [ClassicSimilarity], result of:
            0.15088937 = score(doc=5576,freq=4.0), product of:
              0.17006725 = queryWeight, product of:
                5.678294 = idf(docFreq=410, maxDocs=44218)
                0.029950412 = queryNorm
              0.8872335 = fieldWeight in 5576, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.678294 = idf(docFreq=410, maxDocs=44218)
                0.078125 = fieldNorm(doc=5576)
          0.040578675 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
            0.040578675 = score(doc=5576,freq=2.0), product of:
              0.10488124 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.029950412 = queryNorm
              0.38690117 = fieldWeight in 5576, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5576)
      0.18181819 = coord(2/11)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  5. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.04
    0.037710648 = product of:
      0.13827237 = sum of:
        0.07616729 = weight(_text_:allgemeines in 714) [ClassicSimilarity], result of:
          0.07616729 = score(doc=714,freq=4.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.44573617 = fieldWeight in 714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.024382735 = weight(_text_:und in 714) [ClassicSimilarity], result of:
          0.024382735 = score(doc=714,freq=18.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.3673144 = fieldWeight in 714, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.03772234 = product of:
          0.07544468 = sum of:
            0.07544468 = weight(_text_:intelligenz in 714) [ClassicSimilarity], result of:
              0.07544468 = score(doc=714,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.44361675 = fieldWeight in 714, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=714)
          0.5 = coord(1/2)
      0.27272728 = coord(3/11)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
    54.72 / Künstliche Intelligenz
    RVK
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
  6. Handbook on ontologies (2004) 0.03
    0.025728052 = product of:
      0.14150429 = sum of:
        0.07616729 = weight(_text_:allgemeines in 1952) [ClassicSimilarity], result of:
          0.07616729 = score(doc=1952,freq=4.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.44573617 = fieldWeight in 1952, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1952)
        0.065337 = product of:
          0.130674 = sum of:
            0.130674 = weight(_text_:intelligenz in 1952) [ClassicSimilarity], result of:
              0.130674 = score(doc=1952,freq=12.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.7683667 = fieldWeight in 1952, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    BK
    54.72 / Künstliche Intelligenz
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    ST 302 Informatik / Monographien / Künstliche Intelligenz / Expertensysteme; Wissensbasierte Systeme
    54.72 / Künstliche Intelligenz
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    ST 302 Informatik / Monographien / Künstliche Intelligenz / Expertensysteme; Wissensbasierte Systeme
  7. Hodgson, J.P.E.: Knowledge representation and language in AI (1991) 0.01
    0.0139692975 = product of:
      0.07683113 = sum of:
        0.011494132 = weight(_text_:und in 1529) [ClassicSimilarity], result of:
          0.011494132 = score(doc=1529,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.17315367 = fieldWeight in 1529, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1529)
        0.065337 = product of:
          0.130674 = sum of:
            0.130674 = weight(_text_:intelligenz in 1529) [ClassicSimilarity], result of:
              0.130674 = score(doc=1529,freq=12.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.7683667 = fieldWeight in 1529, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1529)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    BK
    54.72 / Künstliche Intelligenz
    Classification
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    54.72 / Künstliche Intelligenz
    RSWK
    Wissensrepräsentation / Künstliche Intelligenz (BVB)
    Künstliche Intelligenz / Programmiersprache (BVB)
    RVK
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    Subject
    Wissensrepräsentation / Künstliche Intelligenz (BVB)
    Künstliche Intelligenz / Programmiersprache (BVB)
  8. Stuckenschmidt, H.: Ontologien : Konzepte, Technologien und Anwendungen (2009) 0.01
    0.013739727 = product of:
      0.0755685 = sum of:
        0.022757221 = weight(_text_:und in 37) [ClassicSimilarity], result of:
          0.022757221 = score(doc=37,freq=8.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.34282678 = fieldWeight in 37, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
        0.052811272 = product of:
          0.105622545 = sum of:
            0.105622545 = weight(_text_:intelligenz in 37) [ClassicSimilarity], result of:
              0.105622545 = score(doc=37,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.6210634 = fieldWeight in 37, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=37)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Ontologien haben durch die aktuellen Entwicklungen des Semantic Web große Beachtung erfahren, da jetzt Technologien bereitgestellt werden, die eine Verwendung von Ontologien in Informationssystemen ermöglichen. Beginnend mit den grundlegenden Konzepten und Ideen von Ontologien, die der Philosophie und Linguistik entstammen, stellt das Buch den aktuellen Stand der Technik im Bereich unterstützender Technologien aus der Semantic Web Forschung dar und zeigt vielversprechende Anwendungsbiete auf.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  9. Reimer, U.: Einführung in die Wissensrepräsentation : netzartige und schema-basierte Repräsentationsformate (1991) 0.01
    0.013739727 = product of:
      0.0755685 = sum of:
        0.022757221 = weight(_text_:und in 1566) [ClassicSimilarity], result of:
          0.022757221 = score(doc=1566,freq=8.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.34282678 = fieldWeight in 1566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1566)
        0.052811272 = product of:
          0.105622545 = sum of:
            0.105622545 = weight(_text_:intelligenz in 1566) [ClassicSimilarity], result of:
              0.105622545 = score(doc=1566,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.6210634 = fieldWeight in 1566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1566)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Classification
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    ST 304 Informatik / Monographien / Künstliche Intelligenz / Automatisches Programmieren, Deduction and theorem proving, Wissensrepräsentation
    RVK
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    ST 304 Informatik / Monographien / Künstliche Intelligenz / Automatisches Programmieren, Deduction and theorem proving, Wissensrepräsentation
    Series
    Leitfäden und Monographien der Informatik
  10. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.01
    0.011103376 = product of:
      0.061068565 = sum of:
        0.01839061 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.01839061 = score(doc=4499,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.042677954 = product of:
          0.08535591 = sum of:
            0.08535591 = weight(_text_:intelligenz in 4499) [ClassicSimilarity], result of:
              0.08535591 = score(doc=4499,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.501895 = fieldWeight in 4499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
  11. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.011103376 = product of:
      0.061068565 = sum of:
        0.01839061 = weight(_text_:und in 2568) [ClassicSimilarity], result of:
          0.01839061 = score(doc=2568,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.27704588 = fieldWeight in 2568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
        0.042677954 = product of:
          0.08535591 = sum of:
            0.08535591 = weight(_text_:intelligenz in 2568) [ClassicSimilarity], result of:
              0.08535591 = score(doc=2568,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.501895 = fieldWeight in 2568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2568)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
  12. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.010003618 = product of:
      0.055019896 = sum of:
        0.009753094 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.009753094 = score(doc=4332,freq=2.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.045266803 = product of:
          0.09053361 = sum of:
            0.09053361 = weight(_text_:intelligenz in 4332) [ClassicSimilarity], result of:
              0.09053361 = score(doc=4332,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.53234005 = fieldWeight in 4332, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  13. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.01
    0.009225309 = product of:
      0.0507392 = sum of:
        0.020561328 = weight(_text_:und in 4622) [ClassicSimilarity], result of:
          0.020561328 = score(doc=4622,freq=20.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.3097467 = fieldWeight in 4622, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.03017787 = product of:
          0.06035574 = sum of:
            0.06035574 = weight(_text_:intelligenz in 4622) [ClassicSimilarity], result of:
              0.06035574 = score(doc=4622,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3548934 = fieldWeight in 4622, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4622)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  14. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.008759504 = product of:
      0.048177272 = sum of:
        0.021503551 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.021503551 = score(doc=2731,freq=14.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.02667372 = product of:
          0.05334744 = sum of:
            0.05334744 = weight(_text_:intelligenz in 2731) [ClassicSimilarity], result of:
              0.05334744 = score(doc=2731,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.31368437 = fieldWeight in 2731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2731)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  15. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.01
    0.008336349 = product of:
      0.04584992 = sum of:
        0.0081275785 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0081275785 = score(doc=2789,freq=2.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.03772234 = product of:
          0.07544468 = sum of:
            0.07544468 = weight(_text_:intelligenz in 2789) [ClassicSimilarity], result of:
              0.07544468 = score(doc=2789,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.44361675 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  16. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.01
    0.007851273 = product of:
      0.043181997 = sum of:
        0.013004126 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.013004126 = score(doc=506,freq=8.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.03017787 = product of:
          0.06035574 = sum of:
            0.06035574 = weight(_text_:intelligenz in 506) [ClassicSimilarity], result of:
              0.06035574 = score(doc=506,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3548934 = fieldWeight in 506, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  17. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.01
    0.0076498776 = product of:
      0.042074326 = sum of:
        0.02787179 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.02787179 = score(doc=1852,freq=12.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.014202536 = product of:
          0.028405072 = sum of:
            0.028405072 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.028405072 = score(doc=1852,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  18. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.0076498776 = product of:
      0.042074326 = sum of:
        0.02787179 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.02787179 = score(doc=4324,freq=12.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.014202536 = product of:
          0.028405072 = sum of:
            0.028405072 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.028405072 = score(doc=4324,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  19. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.01
    0.0076498776 = product of:
      0.042074326 = sum of:
        0.02787179 = weight(_text_:und in 4792) [ClassicSimilarity], result of:
          0.02787179 = score(doc=4792,freq=12.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41987535 = fieldWeight in 4792, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4792)
        0.014202536 = product of:
          0.028405072 = sum of:
            0.028405072 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.028405072 = score(doc=4792,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. In Form einer Taxonomie wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, die eine detaillierte und damit aussagekräftige Relationierung des Vokabulars ermöglichen. Das bringt einen Zugewinn an Übersichtlichkeit und Funktionalität. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines bestehenden Gegenstandsbereichs heraus.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.0066659576 = product of:
      0.036662765 = sum of:
        0.017991163 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.017991163 = score(doc=4495,freq=20.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.018671604 = product of:
          0.037343208 = sum of:
            0.037343208 = weight(_text_:intelligenz in 4495) [ClassicSimilarity], result of:
              0.037343208 = score(doc=4495,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.21957907 = fieldWeight in 4495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4495)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft

Years

Languages

  • d 118
  • e 85
  • pt 1
  • More… Less…

Types

  • a 130
  • el 46
  • m 26
  • x 23
  • r 7
  • s 6
  • n 3
  • p 1
  • More… Less…

Subjects

Classifications