Search (204 results, page 1 of 11)

  • × theme_ss:"Wissensrepräsentation"
  1. Weiermann, S.L.: Semantische Netze und Begriffsdeskription in der Wissensrepräsentation (2000) 0.60
    0.59673506 = product of:
      0.7160821 = sum of:
        0.1663744 = weight(_text_:einzelne in 3001) [ClassicSimilarity], result of:
          0.1663744 = score(doc=3001,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.64375347 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.17366421 = weight(_text_:sprachen in 3001) [ClassicSimilarity], result of:
          0.17366421 = score(doc=3001,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.65770555 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.03336429 = weight(_text_:und in 3001) [ClassicSimilarity], result of:
          0.03336429 = score(doc=3001,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34282678 = fieldWeight in 3001, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.2763826 = weight(_text_:literaturen in 3001) [ClassicSimilarity], result of:
          0.2763826 = score(doc=3001,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.8297202 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.066296555 = product of:
          0.13259311 = sum of:
            0.13259311 = weight(_text_:allgemein in 3001) [ClassicSimilarity], result of:
              0.13259311 = score(doc=3001,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.57469416 = fieldWeight in 3001, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3001)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt (in Kürze): Einleitung. Wissensrepräsentation. Semantische Netze. Wissensrepräsentationssysteme. Empirische Analyse und Systemerweiterungen.
  2. Semantic knowledge and semantic representations (1995) 0.34
    0.33633804 = product of:
      0.40360567 = sum of:
        0.095071085 = weight(_text_:einzelne in 3568) [ClassicSimilarity], result of:
          0.095071085 = score(doc=3568,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.36785913 = fieldWeight in 3568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=3568)
        0.09923669 = weight(_text_:sprachen in 3568) [ClassicSimilarity], result of:
          0.09923669 = score(doc=3568,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.37583172 = fieldWeight in 3568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=3568)
        0.013481208 = weight(_text_:und in 3568) [ClassicSimilarity], result of:
          0.013481208 = score(doc=3568,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.13852294 = fieldWeight in 3568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3568)
        0.15793292 = weight(_text_:literaturen in 3568) [ClassicSimilarity], result of:
          0.15793292 = score(doc=3568,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.47412583 = fieldWeight in 3568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.03125 = fieldNorm(doc=3568)
        0.037883747 = product of:
          0.075767495 = sum of:
            0.075767495 = weight(_text_:allgemein in 3568) [ClassicSimilarity], result of:
              0.075767495 = score(doc=3568,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.32839668 = fieldWeight in 3568, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3568)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  3. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.09
    0.08905468 = product of:
      0.17810936 = sum of:
        0.11883886 = weight(_text_:einzelne in 2789) [ClassicSimilarity], result of:
          0.11883886 = score(doc=2789,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.4598239 = fieldWeight in 2789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.011915817 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.011915817 = score(doc=2789,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.047354683 = product of:
          0.09470937 = sum of:
            0.09470937 = weight(_text_:allgemein in 2789) [ClassicSimilarity], result of:
              0.09470937 = score(doc=2789,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.41049585 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
  4. Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006) 0.06
    0.06359464 = product of:
      0.19078392 = sum of:
        0.14034186 = weight(_text_:sprachen in 6023) [ClassicSimilarity], result of:
          0.14034186 = score(doc=6023,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5315063 = fieldWeight in 6023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.05044206 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.05044206 = score(doc=6023,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314
  5. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.06
    0.063517675 = product of:
      0.12703535 = sum of:
        0.06722541 = weight(_text_:einzelne in 4605) [ClassicSimilarity], result of:
          0.06722541 = score(doc=4605,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.033022083 = weight(_text_:und in 4605) [ClassicSimilarity], result of:
          0.033022083 = score(doc=4605,freq=24.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 4605, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.026787855 = product of:
          0.05357571 = sum of:
            0.05357571 = weight(_text_:allgemein in 4605) [ClassicSimilarity], result of:
              0.05357571 = score(doc=4605,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23221152 = fieldWeight in 4605, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4605)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  6. Weller, K.: Anforderungen an die Wissensrepräsentation im Social Semantic Web (2010) 0.05
    0.05283574 = product of:
      0.15850721 = sum of:
        0.117644474 = weight(_text_:einzelne in 4061) [ClassicSimilarity], result of:
          0.117644474 = score(doc=4061,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 4061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
        0.04086274 = weight(_text_:und in 4061) [ClassicSimilarity], result of:
          0.04086274 = score(doc=4061,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 4061, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Artikel gibt einen Einblick in die aktuelle Verschmelzung von Web 2.0-und Semantic Web-Ansätzen, die als Social Semantic Web beschrieben werden kann. Die Grundidee des Social Semantic Web wird beschrieben und einzelne erste Anwendungsbeispiele vorgestellt. Ein wesentlicher Schwerpunkt dieser Entwicklung besteht in der Umsetzung neuer Methoden und Herangehensweisen im Bereich der Wissensrepräsentation. Dieser Artikel stellt vier Schwerpunkte vor, in denen sich die Wissensrepräsentationsmethoden im Social Semantic Web weiterentwickeln müssen und geht dabei jeweils auf den aktuellen Stand ein.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  7. Kless, D.: Erstellung eines allgemeinen Standards zur Wissensorganisation : Nutzen, Möglichkeiten, Herausforderungen, Wege (2010) 0.05
    0.052719504 = product of:
      0.15815851 = sum of:
        0.033703018 = weight(_text_:und in 4422) [ClassicSimilarity], result of:
          0.033703018 = score(doc=4422,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 4422, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4422)
        0.1244555 = sum of:
          0.09470937 = weight(_text_:allgemein in 4422) [ClassicSimilarity], result of:
            0.09470937 = score(doc=4422,freq=4.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.41049585 = fieldWeight in 4422, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4422)
          0.029746132 = weight(_text_:22 in 4422) [ClassicSimilarity], result of:
            0.029746132 = score(doc=4422,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.19345059 = fieldWeight in 4422, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4422)
      0.33333334 = coord(2/6)
    
    Abstract
    Zur Organisation und zum besseren Auffinden von Wissen werden häufig verschiedene Typen von Vokabularen verwendet. Aufgrund ihres Ursprungs in unterschiedlichen Communities werden die Vokabulare mit unterschiedlicher Terminologie sowie jeweils eigenen Methoden und Werkzeugen beschrieben und sind, wenn überhaupt, unterschiedlich stark und mit unterschiedlichem Fokus standardisiert. Um dieser Entwicklung zu entgegnen, müssen zum einen die Standards für die verschiedenen Vokabulartypen (weiter-)entwickelt werden und dabei auf gemeinsame, heute allgemein anerkannte Modellierungssprachen (z.B. UML) und XML-basierte Auszeichnungssprachen zurückgreifen. Zum anderen ist ein Meta-Standard nötig, der die Terminologie der verschiedenen Communities aufeinander abbildet und die Vokabulare vergleichbar macht. Dies würde nicht nur die qualifizierte Auswahl eines Vokabulartyps ermöglichen, sondern auch deren gegenseitiges Abbilden (Mappen) und allgemein der Wiederverwendung von Vokabularen nutzen. In Ansätzen wurde diese Strategie im jüngst veröffentlichten britischen Standard BS 8723 verfolgt, dessen Schwerpunkt (weiter) auf Thesauri liegt, der jedoch auch explizit Bezug zu anderen Vokabularen nimmt. Die im April 2007 begonnene Revision des Standards als internationale ISO-Norm 25964 erlaubt weitere, wenn auch vielleicht kleine Schritte hin zu einer langfristigen Vision von allgemeingültigen Standards zur Wissensorganisation.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  8. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.04
    0.039851796 = product of:
      0.119555384 = sum of:
        0.1052564 = weight(_text_:sprachen in 4332) [ClassicSimilarity], result of:
          0.1052564 = score(doc=4332,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.39862972 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.01429898 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.01429898 = score(doc=4332,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  9. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.04
    0.039851796 = product of:
      0.119555384 = sum of:
        0.1052564 = weight(_text_:sprachen in 4333) [ClassicSimilarity], result of:
          0.1052564 = score(doc=4333,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.39862972 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.01429898 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.01429898 = score(doc=4333,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.14692576 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  10. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.04
    0.035696916 = product of:
      0.10709074 = sum of:
        0.07017093 = weight(_text_:sprachen in 3894) [ClassicSimilarity], result of:
          0.07017093 = score(doc=3894,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.26575315 = fieldWeight in 3894, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=3894)
        0.03691981 = weight(_text_:und in 3894) [ClassicSimilarity], result of:
          0.03691981 = score(doc=3894,freq=30.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3793607 = fieldWeight in 3894, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3894)
      0.33333334 = coord(2/6)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.4, 245
  11. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.03
    0.033800647 = product of:
      0.10140194 = sum of:
        0.061399568 = weight(_text_:sprachen in 167) [ClassicSimilarity], result of:
          0.061399568 = score(doc=167,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.232534 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.040002372 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.040002372 = score(doc=167,freq=46.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
  12. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.03
    0.032922965 = product of:
      0.09876889 = sum of:
        0.07017093 = weight(_text_:sprachen in 4498) [ClassicSimilarity], result of:
          0.07017093 = score(doc=4498,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.26575315 = fieldWeight in 4498, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.02859796 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
          0.02859796 = score(doc=4498,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.29385152 = fieldWeight in 4498, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
      0.33333334 = coord(2/6)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
    Imprint
    Halle-Wittenberg : Fachbereich Geschichte, Philosophie und Sozialwissenschaften, Fachbereich Geschichte, Philosophie und Sozialwissenschaften
  13. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.03
    0.029258786 = product of:
      0.087776355 = sum of:
        0.061399568 = weight(_text_:sprachen in 4495) [ClassicSimilarity], result of:
          0.061399568 = score(doc=4495,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.232534 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.026376786 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.026376786 = score(doc=4495,freq=20.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.33333334 = coord(2/6)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  14. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.02
    0.021149717 = product of:
      0.06344915 = sum of:
        0.033703018 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.033703018 = score(doc=5576,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.029746132 = product of:
          0.059492264 = sum of:
            0.059492264 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.059492264 = score(doc=5576,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  15. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.02
    0.021149717 = product of:
      0.06344915 = sum of:
        0.033703018 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.033703018 = score(doc=3406,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.029746132 = product of:
          0.059492264 = sum of:
            0.059492264 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.059492264 = score(doc=3406,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Diplomarbeit, Freie Universität Berlin / Fachbereich Erziehungswissenschaft und Psychologie / Diplomstudiengang Psychologie; vgl.: http://heikohaller.de/literatur/diplomarbeit/ bzw. www.heikohaller.de/toolvergleich/.
    Date
    30. 5.2010 16:22:35
    Imprint
    Berlin : Freie Universität / Fachbereich Erziehungswissenschaft und Psychologie
  16. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.02
    0.020561678 = product of:
      0.061685033 = sum of:
        0.04086274 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.04086274 = score(doc=1852,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.020822292 = product of:
          0.041644584 = sum of:
            0.041644584 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.041644584 = score(doc=1852,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  17. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.020561678 = product of:
      0.061685033 = sum of:
        0.04086274 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.04086274 = score(doc=4324,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.020822292 = product of:
          0.041644584 = sum of:
            0.041644584 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.041644584 = score(doc=4324,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  18. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.02
    0.020561678 = product of:
      0.061685033 = sum of:
        0.04086274 = weight(_text_:und in 4792) [ClassicSimilarity], result of:
          0.04086274 = score(doc=4792,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 4792, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4792)
        0.020822292 = product of:
          0.041644584 = sum of:
            0.041644584 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.041644584 = score(doc=4792,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. In Form einer Taxonomie wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, die eine detaillierte und damit aussagekräftige Relationierung des Vokabulars ermöglichen. Das bringt einen Zugewinn an Übersichtlichkeit und Funktionalität. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines bestehenden Gegenstandsbereichs heraus.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  19. Fischer, D.H.: ¬Ein Lehrbeispiel für eine Ontologie : OpenCyc (2004) 0.02
    0.018216271 = product of:
      0.05464881 = sum of:
        0.031209433 = weight(_text_:und in 4568) [ClassicSimilarity], result of:
          0.031209433 = score(doc=4568,freq=28.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3206851 = fieldWeight in 4568, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4568)
        0.023439374 = product of:
          0.046878748 = sum of:
            0.046878748 = weight(_text_:allgemein in 4568) [ClassicSimilarity], result of:
              0.046878748 = score(doc=4568,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.20318508 = fieldWeight in 4568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4568)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Es wird ein einführender Überblick über das seit Frühjahr 2002 allgemein verfügbare Ontologiesystem OpenCyc und seine gegenwärtige Wissensbasis gegeben. Das System ist Prototyp eines logikbasierten Wissensrepräsentationssystems und der lnhalt der fortschreib-baren Wissensbasis ist eine universelle Dachontologie, die als ein Extrakt aus langjähriger Erfahrung mit ihrer Anwendung angesehen werden kann. Die Wissensrepräsentationssprache CycL von OpenCyc konkurriert mit der bisher weniger ausdrucksstarken Sprache OWL, die von den W3C-Gremien für das "Semantic Web"standardisiert wird.
    Content
    Wer über Ontologien und Ontologiesysteme spricht, sollte auch das System OpenCyc kennen. Aber was heißt hier "kennen"? Ich habe mich als Leser und experimentierender Benutzer mit diesem System intensiver befasst und unter einer Reihe von spezielleren Fragen an das System meine Erfahrungen in einigen Arbeitspapieren protokolliert. Sie sind über das Internet zugänglich'. Hier möchte ich der allgemeinen Orientierung über OpenCyc dienende Anmerkungen dazugeben. Bereits eine Recherche mit der Suchmaschine Google, den Suchworten "Cyc OpenCyc" und Beschränkung der Quellen auf Sprache Deutsch oder Herkunft Deutschland erbringt einige der auch hier wiedergegebenen vordergründigen Informationen, sie zeigt aber auch, dass sich Professoren oder Studenten im Jahr 2003 z.B. in Ulm, Heidelberg, Berlin, Bamberg, Bonn und Darmstadt mit dem Thema Cyc und OpenCyc beschäftigt haben entsprechend meiner Titelthese.
    Das Projekt Cyc ist im Jahre 1984 angetreten mit der Zielsetzung, im großen Maßstab Alltags- und enzyklopädisches Wissen in einem einheitlichen System zu formalisieren im Gegensatz zu den bisherigen Versuchen der jeweiligen Repräsentation sektoralen Expertenwissens. Nachdem man sich dem Mythos Cyc zunächst nur über Publikationen nähern konntet, wurde dann 1997 als Textdatei Cycs "Upper Ontology" durch die Firma Cycorp Inc. zugänglich gemacht. Sie enthielt aber einiges nicht, was beschrieben worden war: z.B. Regeln und die Bindung von Aussagen an "Mikrotheorien". Entsprechend dieser Beschränkung war es mir möglich, den Inhalt dieser Datei strukturell verlustfrei in mein objektorientiertes, generisches Thesaurussystem "TerminologyFramework" einzubringen. Im April 200z wurden dann unter dem Namen OpenCyc nicht nur der Inhalt eines Auszugs aus Cycorps Ontologie, sondern auch zugehörige Werkzeuge zum lesenden Stöbern, Ändern und Schließen in einem ersten Release 0.6 zugänglich. Dazu findet man reichlich tutorielles Material, jedoch ist es nicht exakt abgestimmt auf die aktuell vorliegende Wissensbasis, sowie allerhand Dokumentation; vor allem aber findet man zum Herunterladen das Softwarepaket samt Wissensbasis für Windows NT/2000/XP- oder für Linux-Systeme. In welchem Verhältnis das nun kostenlos mit einer "GNU Lesser General Public License" verfügbare OpenCyc zu dem kommerziellen "Full Cyc" der Firma Cycorp steht, darüber weiß ich nichts aus erster Hand; die von mir für OpenCyc ermittelten Zahlen (s.u.) stehen zu neueren Angaben für Cyc in einem Größenordnungsverhältnis von ca. 1 zu 10. Informationen über realisierte Anwendungen kann man der Firmenselbstdarstellung$ und den von dort erreichbaren "white papers" entnehmen. Auf der Firmeneingangsseite findet man in Gestalt einer Pyramide eine Inhaltsübersicht der Ontologie von Cyc (siehe Abbildung 1): Beim Darüberfahren mit der Maus wird das dort wie auch hier kaum leserliche Kleingedruckte im Feld links oben lesbar und durch Klicken wird eine Inhaltsbeschreibung des jeweiligen Begriffsbereichs im Feld unten gegeben. OpenCyc stellt wohl einen exemplarischen Auszug aus dem oberen Teil der Pyramide oberhalb "Domain-Specific Knowledge" dar.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.139-142
  20. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.02
    0.017859256 = product of:
      0.053577766 = sum of:
        0.023831634 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.023831634 = score(doc=539,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24487628 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=539)
        0.029746132 = product of:
          0.059492264 = sum of:
            0.059492264 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
              0.059492264 = score(doc=539,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.38690117 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    26.12.2011 13:22:07
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Years

Languages

  • d 120
  • e 79
  • pt 1
  • More… Less…

Types

  • a 130
  • el 46
  • x 24
  • m 19
  • r 7
  • n 3
  • s 3
  • p 1
  • More… Less…

Subjects

Classifications