Search (31 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  1. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.06
    0.06012657 = product of:
      0.24050628 = sum of:
        0.24050628 = sum of:
          0.18953471 = weight(_text_:intelligenz in 5576) [ClassicSimilarity], result of:
            0.18953471 = score(doc=5576,freq=4.0), product of:
              0.21362439 = queryWeight, product of:
                5.678294 = idf(docFreq=410, maxDocs=44218)
                0.037621226 = queryNorm
              0.8872335 = fieldWeight in 5576, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.678294 = idf(docFreq=410, maxDocs=44218)
                0.078125 = fieldNorm(doc=5576)
          0.050971568 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
            0.050971568 = score(doc=5576,freq=2.0), product of:
              0.13174312 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037621226 = queryNorm
              0.38690117 = fieldWeight in 5576, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5576)
      0.25 = coord(1/4)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  2. Reimer, U.: Einführung in die Wissensrepräsentation : netzartige und schema-basierte Repräsentationsformate (1991) 0.04
    0.041907985 = product of:
      0.08381597 = sum of:
        0.017478824 = product of:
          0.052436467 = sum of:
            0.052436467 = weight(_text_:k in 1566) [ClassicSimilarity], result of:
              0.052436467 = score(doc=1566,freq=4.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.39044446 = fieldWeight in 1566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1566)
          0.33333334 = coord(1/3)
        0.066337146 = product of:
          0.13267429 = sum of:
            0.13267429 = weight(_text_:intelligenz in 1566) [ClassicSimilarity], result of:
              0.13267429 = score(doc=1566,freq=4.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.6210634 = fieldWeight in 1566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1566)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Classification
    ST 304 Informatik / Monographien / Künstliche Intelligenz / Automatisches Programmieren, Deduction and theorem proving, Wissensrepräsentation
    IFQ (FH K)
    GHBS
    IFQ (FH K)
    RVK
    ST 304 Informatik / Monographien / Künstliche Intelligenz / Automatisches Programmieren, Deduction and theorem proving, Wissensrepräsentation
  3. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.02
    0.02394742 = product of:
      0.04789484 = sum of:
        0.009987899 = product of:
          0.029963696 = sum of:
            0.029963696 = weight(_text_:k in 506) [ClassicSimilarity], result of:
              0.029963696 = score(doc=506,freq=4.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.22311112 = fieldWeight in 506, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.33333334 = coord(1/3)
        0.03790694 = product of:
          0.07581388 = sum of:
            0.07581388 = weight(_text_:intelligenz in 506) [ClassicSimilarity], result of:
              0.07581388 = score(doc=506,freq=4.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.3548934 = fieldWeight in 506, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
    BCAQ (FH K)
    GHBS
    BCAQ (FH K)
  4. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.02
    0.017659437 = product of:
      0.035318874 = sum of:
        0.017478824 = product of:
          0.052436467 = sum of:
            0.052436467 = weight(_text_:k in 1852) [ClassicSimilarity], result of:
              0.052436467 = score(doc=1852,freq=4.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.39044446 = fieldWeight in 1852, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.33333334 = coord(1/3)
        0.017840048 = product of:
          0.035680097 = sum of:
            0.035680097 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.035680097 = score(doc=1852,freq=2.0), product of:
                0.13174312 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037621226 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Object
    K-Infinity
  5. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.017659437 = product of:
      0.035318874 = sum of:
        0.017478824 = product of:
          0.052436467 = sum of:
            0.052436467 = weight(_text_:k in 4324) [ClassicSimilarity], result of:
              0.052436467 = score(doc=4324,freq=4.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.39044446 = fieldWeight in 4324, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
        0.017840048 = product of:
          0.035680097 = sum of:
            0.035680097 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.035680097 = score(doc=4324,freq=2.0), product of:
                0.13174312 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037621226 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
    Object
    K-Infinity
  6. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.014215102 = product of:
      0.05686041 = sum of:
        0.05686041 = product of:
          0.11372082 = sum of:
            0.11372082 = weight(_text_:intelligenz in 4332) [ClassicSimilarity], result of:
              0.11372082 = score(doc=4332,freq=4.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.53234005 = fieldWeight in 4332, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  7. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.01
    0.013402127 = product of:
      0.053608507 = sum of:
        0.053608507 = product of:
          0.107217014 = sum of:
            0.107217014 = weight(_text_:intelligenz in 4499) [ClassicSimilarity], result of:
              0.107217014 = score(doc=4499,freq=2.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.501895 = fieldWeight in 4499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  8. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.013402127 = product of:
      0.053608507 = sum of:
        0.053608507 = product of:
          0.107217014 = sum of:
            0.107217014 = weight(_text_:intelligenz in 2568) [ClassicSimilarity], result of:
              0.107217014 = score(doc=2568,freq=2.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.501895 = fieldWeight in 2568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2568)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
  9. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.01
    0.009476735 = product of:
      0.03790694 = sum of:
        0.03790694 = product of:
          0.07581388 = sum of:
            0.07581388 = weight(_text_:intelligenz in 4622) [ClassicSimilarity], result of:
              0.07581388 = score(doc=4622,freq=4.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.3548934 = fieldWeight in 4622, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4622)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  10. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.008376329 = product of:
      0.033505317 = sum of:
        0.033505317 = product of:
          0.06701063 = sum of:
            0.06701063 = weight(_text_:intelligenz in 2731) [ClassicSimilarity], result of:
              0.06701063 = score(doc=2731,freq=2.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.31368437 = fieldWeight in 2731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2731)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  11. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.006371446 = product of:
      0.025485784 = sum of:
        0.025485784 = product of:
          0.050971568 = sum of:
            0.050971568 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.050971568 = score(doc=3406,freq=2.0), product of:
                0.13174312 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037621226 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    30. 5.2010 16:22:35
  12. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.01
    0.006371446 = product of:
      0.025485784 = sum of:
        0.025485784 = product of:
          0.050971568 = sum of:
            0.050971568 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.050971568 = score(doc=4523,freq=2.0), product of:
                0.13174312 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037621226 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  13. Hinkelmann, K.: Ontopia Omnigator : ein Werkzeug zur Einführung in Topic Maps (20xx) 0.01
    0.0061796973 = product of:
      0.02471879 = sum of:
        0.02471879 = product of:
          0.07415637 = sum of:
            0.07415637 = weight(_text_:k in 3162) [ClassicSimilarity], result of:
              0.07415637 = score(doc=3162,freq=2.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.5521719 = fieldWeight in 3162, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3162)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
  14. Haenelt, K.: Semantik im Wiki : am Beispiel des MediaWiki und Semantic MediaWiki (2011) 0.01
    0.0061796973 = product of:
      0.02471879 = sum of:
        0.02471879 = product of:
          0.07415637 = sum of:
            0.07415637 = weight(_text_:k in 3166) [ClassicSimilarity], result of:
              0.07415637 = score(doc=3166,freq=2.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.5521719 = fieldWeight in 3166, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3166)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
  15. Weller, K.: Kooperativer Ontologieaufbau (2006) 0.01
    0.0061796973 = product of:
      0.02471879 = sum of:
        0.02471879 = product of:
          0.07415637 = sum of:
            0.07415637 = weight(_text_:k in 1270) [ClassicSimilarity], result of:
              0.07415637 = score(doc=1270,freq=2.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.5521719 = fieldWeight in 1270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1270)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
  16. Weller, K.: Kooperativer Ontologieaufbau (2006) 0.01
    0.0061796973 = product of:
      0.02471879 = sum of:
        0.02471879 = product of:
          0.07415637 = sum of:
            0.07415637 = weight(_text_:k in 2397) [ClassicSimilarity], result of:
              0.07415637 = score(doc=2397,freq=2.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.5521719 = fieldWeight in 2397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2397)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
  17. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.0058634304 = product of:
      0.023453722 = sum of:
        0.023453722 = product of:
          0.046907444 = sum of:
            0.046907444 = weight(_text_:intelligenz in 4495) [ClassicSimilarity], result of:
              0.046907444 = score(doc=4495,freq=2.0), product of:
                0.21362439 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.037621226 = queryNorm
                0.21957907 = fieldWeight in 4495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4495)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
  18. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.01
    0.0050971564 = product of:
      0.020388626 = sum of:
        0.020388626 = product of:
          0.04077725 = sum of:
            0.04077725 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.04077725 = score(doc=318,freq=2.0), product of:
                0.13174312 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037621226 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 5.2021 12:43:05
  19. Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004) 0.00
    0.004587236 = product of:
      0.018348943 = sum of:
        0.018348943 = product of:
          0.055046827 = sum of:
            0.055046827 = weight(_text_:k in 620) [ClassicSimilarity], result of:
              0.055046827 = score(doc=620,freq=6.0), product of:
                0.13429943 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.037621226 = queryNorm
                0.40988132 = fieldWeight in 620, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.046875 = fieldNorm(doc=620)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
    Object
    K-Discovery
  20. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.00
    0.004460012 = product of:
      0.017840048 = sum of:
        0.017840048 = product of:
          0.035680097 = sum of:
            0.035680097 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.035680097 = score(doc=4792,freq=2.0), product of:
                0.13174312 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037621226 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly

Years

Types

  • a 14
  • el 9
  • m 6
  • x 4
  • p 1
  • r 1
  • s 1
  • More… Less…