Search (7 results, page 1 of 1)

  • × classification_ss:"ST 304"
  1. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.02
    0.020549437 = product of:
      0.12740651 = sum of:
        0.071335725 = weight(_text_:sprache in 2731) [ClassicSimilarity], result of:
          0.071335725 = score(doc=2731,freq=10.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.6414234 = fieldWeight in 2731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.01537747 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.01537747 = score(doc=2731,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.016375672 = weight(_text_:im in 2731) [ClassicSimilarity], result of:
          0.016375672 = score(doc=2731,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27047595 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.008940164 = weight(_text_:20 in 2731) [ClassicSimilarity], result of:
          0.008940164 = score(doc=2731,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.15185234 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.01537747 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.01537747 = score(doc=2731,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.16129032 = coord(5/31)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
    Content
    1. Aufl. u.d.T.: Die semantische Struktur natürlicher Sprache
    Date
    26. 7.2000 20:00:49
    RSWK
    Wissensrepräsentation / Semantisches Netz / Natürliche Sprache / Semantische Analyse / Syntaktische Analyse / Formale Beschreibungstechnik
    Subject
    Wissensrepräsentation / Semantisches Netz / Natürliche Sprache / Semantische Analyse / Syntaktische Analyse / Formale Beschreibungstechnik
  2. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.01
    0.0054270313 = product of:
      0.042059492 = sum of:
        0.014703675 = weight(_text_:und in 4622) [ClassicSimilarity], result of:
          0.014703675 = score(doc=4622,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3097467 = fieldWeight in 4622, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.010696544 = weight(_text_:im in 4622) [ClassicSimilarity], result of:
          0.010696544 = score(doc=4622,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.17667414 = fieldWeight in 4622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.0019555981 = weight(_text_:e in 4622) [ClassicSimilarity], result of:
          0.0019555981 = score(doc=4622,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.063523374 = fieldWeight in 4622, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.014703675 = weight(_text_:und in 4622) [ClassicSimilarity], result of:
          0.014703675 = score(doc=4622,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3097467 = fieldWeight in 4622, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
      0.12903225 = coord(4/31)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
    Content
    Ausgabe als E-Book: http://dx.doi.org/10.1007/978-3-8348-9517-2.
  3. Bibel, W.; Hölldobler, S.; Schaub, T.: Wissensrepräsentation und Inferenz : eine grundlegende Einführung (1993) 0.01
    0.005340011 = product of:
      0.041385084 = sum of:
        0.014236772 = weight(_text_:und in 3389) [ClassicSimilarity], result of:
          0.014236772 = score(doc=3389,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29991096 = fieldWeight in 3389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
        0.009454499 = weight(_text_:im in 3389) [ClassicSimilarity], result of:
          0.009454499 = score(doc=3389,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.15615936 = fieldWeight in 3389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
        0.003457042 = weight(_text_:e in 3389) [ClassicSimilarity], result of:
          0.003457042 = score(doc=3389,freq=4.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.112294525 = fieldWeight in 3389, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
        0.014236772 = weight(_text_:und in 3389) [ClassicSimilarity], result of:
          0.014236772 = score(doc=3389,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29991096 = fieldWeight in 3389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
      0.12903225 = coord(4/31)
    
    Abstract
    Das Gebiet der Wissenspräsentation und Inferenz umfaßt einen zentralen Bereich der Intellektik, d.h. des Gebietes der Künstlichen Intelligenz und der Kognitionswissenschaft. Es behandelt einerseits die Fragen nach einer formalen Beschreibung von Wissen jeglicher Art, besonders unter dem Aspekt einer maschinellen Verarbeitung in modernen Computern. Andererseits versucht es, das Alltagsschließen des Menschen so zu formalisieren, daß logische Schlüsse auch von Maschinen ausgeführt werden könnten. Das Buch gibt eine ausführliche Einführung in dieses umfangreiche Gebiet. Dem Studenten dient es im Rahmen einer solchen Vorlesung oder zum Selbststudium als umfassende Unterlage, und der Praktiker zieht einen großen Gewinn aus der Lektüre dieses modernen Stoffes, der in dieser Breite bisher nicht verfügbar war. Darüber hinaus leistet das Buch einen wichtigen Beitrag zur Forschung dadurch, daß viele Ansätze auf diesem Gebiet in ihren inneren Bezügen in ihrer Bedeutung klarer erkennbar w erden und so eine solide Basis für die zukünftige Forschungsarbeit geschaffen ist. Der Leser ist nach der Lektüre dieses Werkes in der Lage, sich mit Details der Wissenspräsentation und Inferenz auseinanderzusetzen.
    Classification
    AYZ (E)
    GHBS
    AYZ (E)
  4. Euzenat, J.; Shvaiko, P.: Ontology matching (2010) 0.00
    0.0019189842 = product of:
      0.019829504 = sum of:
        0.010114641 = weight(_text_:20 in 168) [ClassicSimilarity], result of:
          0.010114641 = score(doc=168,freq=4.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.17180131 = fieldWeight in 168, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.0039111963 = weight(_text_:e in 168) [ClassicSimilarity], result of:
          0.0039111963 = score(doc=168,freq=8.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.12704675 = fieldWeight in 168, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.005803668 = product of:
          0.011607336 = sum of:
            0.011607336 = weight(_text_:22 in 168) [ClassicSimilarity], result of:
              0.011607336 = score(doc=168,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.15476047 = fieldWeight in 168, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=168)
          0.5 = coord(1/2)
      0.09677419 = coord(3/31)
    
    Abstract
    Ontologies are viewed as the silver bullet for many applications, but in open or evolving systems, different parties can adopt different ontologies. This increases heterogeneity problems rather than reducing heterogeneity. This book proposes ontology matching as a solution to the problem of semantic heterogeneity, offering researchers and practitioners a uniform framework of reference to currently available work. The techniques presented apply to database schema matching, catalog integration, XML schema matching and more. Ontologies tend to be found everywhere. They are viewed as the silver bullet for many applications, such as database integration, peer-to-peer systems, e-commerce, semantic web services, or social networks. However, in open or evolving systems, such as the semantic web, different parties would, in general, adopt different ontologies. Thus, merely using ontologies, like using XML, does not reduce heterogeneity: it just raises heterogeneity problems to a higher level. Euzenat and Shvaiko's book is devoted to ontology matching as a solution to the semantic heterogeneity problem faced by computer systems. Ontology matching aims at finding correspondences between semantically related entities of different ontologies. These correspondences may stand for equivalence as well as other relations, such as consequence, subsumption, or disjointness, between ontology entities. Many different matching solutions have been proposed so far from various viewpoints, e.g., databases, information systems, artificial intelligence. With Ontology Matching, researchers and practitioners will find a reference book which presents currently available work in a uniform framework. In particular, the work and the techniques presented in this book can equally be applied to database schema matching, catalog integration, XML schema matching and other related problems. The objectives of the book include presenting (i) the state of the art and (ii) the latest research results in ontology matching by providing a detailed account of matching techniques and matching systems in a systematic way from theoretical, practical and application perspectives.
    Classification
    TWY (E)
    Date
    30. 5.2012 20:14:06
    20. 6.2012 19:08:22
    GHBS
    TWY (E)
    Language
    e
  5. IEEE symposium on information visualization 2003 : Seattle, Washington, October 19 - 21, 2003 ; InfoVis 2003. Proceedings (2003) 0.00
    1.2616762E-4 = product of:
      0.0039111963 = sum of:
        0.0039111963 = weight(_text_:e in 1455) [ClassicSimilarity], result of:
          0.0039111963 = score(doc=1455,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.12704675 = fieldWeight in 1455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=1455)
      0.032258064 = coord(1/31)
    
    Language
    e
  6. Arp, R.; Smith, B.; Spear, A.D.: Building ontologies with basic formal ontology (2015) 0.00
    6.308381E-5 = product of:
      0.0019555981 = sum of:
        0.0019555981 = weight(_text_:e in 3444) [ClassicSimilarity], result of:
          0.0019555981 = score(doc=3444,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.063523374 = fieldWeight in 3444, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=3444)
      0.032258064 = coord(1/31)
    
    Language
    e
  7. Handbook of metadata, semantics and ontologies (2014) 0.00
    6.308381E-5 = product of:
      0.0019555981 = sum of:
        0.0019555981 = weight(_text_:e in 5134) [ClassicSimilarity], result of:
          0.0019555981 = score(doc=5134,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.063523374 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=5134)
      0.032258064 = coord(1/31)
    
    Language
    e

Languages

Types