Search (22 results, page 1 of 2)

  • × theme_ss:"Wissensrepräsentation"
  • × language_ss:"d"
  1. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.06
    0.059083853 = product of:
      0.118167706 = sum of:
        0.118167706 = sum of:
          0.07648084 = weight(_text_:probleme in 4095) [ClassicSimilarity], result of:
            0.07648084 = score(doc=4095,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.31443292 = fieldWeight in 4095, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.046875 = fieldNorm(doc=4095)
          0.041686863 = weight(_text_:22 in 4095) [ClassicSimilarity], result of:
            0.041686863 = score(doc=4095,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.23214069 = fieldWeight in 4095, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4095)
      0.5 = coord(1/2)
    
    Abstract
    Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  2. Reitbauer, A.: IT Konsolidierung und Informationsintegration (2006) 0.03
    0.031546738 = product of:
      0.063093476 = sum of:
        0.063093476 = product of:
          0.12618695 = sum of:
            0.12618695 = weight(_text_:probleme in 5806) [ClassicSimilarity], result of:
              0.12618695 = score(doc=5806,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.51878786 = fieldWeight in 5806, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5806)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieser Artikel betrachtet das Problem steigender Komplexität in IT Systemen. Als wesentlicher Aspekt wird Interoperabilität zwischen Anwendungen dargestellt. Als Modell für die Vielschichtigkeit von Integrationszenarien wird ein Modell präsentiert. das Integration und deren Auswirkungen auf verschiedenen Ebenen darstellt. Semantische Technologien werden in Relation zu bestehenden Ansätzen, wie Entity Relationship Diagrammen und objektorientierter Modellierung, gesetzt. Ein konkretes Beispiel demonstriert die unterschiedlichen Modellierungsergebnisse. Als wesentliche Szenarien für die Verwendung von semantischen Technologien werden Daten- und Prozessintegration dargestellt. Hierbei werden zuerst Probleme mit bestehenden Technologien präsentiert. Anschließend folgt anhand von Beispielen die Demonstration, wie semantische Technologien helfen können, diese Probleme zu lösen.
  3. Reif, G.: Semantische Annotation (2006) 0.03
    0.025493614 = product of:
      0.05098723 = sum of:
        0.05098723 = product of:
          0.10197446 = sum of:
            0.10197446 = weight(_text_:probleme in 5807) [ClassicSimilarity], result of:
              0.10197446 = score(doc=5807,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.41924387 = fieldWeight in 5807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5807)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.
  4. Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 620) [ClassicSimilarity], result of:
              0.07648084 = score(doc=620,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 620, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=620)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
  5. Leidig, T.: Ontologien für die Informationsintegration in Geschäftsanwendungen (2006) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 6024) [ClassicSimilarity], result of:
              0.07648084 = score(doc=6024,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 6024, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6024)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Informationsintegration auf Basis semantischer Modelle ist ein viel versprechender Ansatz zur Bewältigung des Informationsüberflusses. Informationen und Wissen stehen oft in großer Menge zur Verfügung, doch es ist sehr schwierig, das Wissen in einer spezifischen Situation zu fin-den oder überhaupt gewahr zu sein, dass adäquate Informationen vorhanden sind. Der Prozess des Suchens erfordert sehr viel Geduld und Erfahrung. Reine textuelle Suchmaschinen wie Google führen leider oft nicht oder nicht effizient genug zum Ziel. Eine zentrale Herausforderung ist daher die Filterung und strukturierte Aufbereitung von Informationen im Kontext der aktuellen Arbeitsumgebung und der jeweiligen Aufgabenstellung. Semantische Metadaten können dabei helfen, diese Abbildung vorhandener Informationsquellen in den Aufgabenkontext zu bewerkstelligen. Doch wie kommt man zu geeigneten, reichhaltigen semantischen Metadaten? Nach heutiger Praxis geschieht das hauptsächlich durch manuelle Verfahren, die allerdings auch viele Probleme aufwerfen. Daher ist der Erfolg semantischer Informationsintegration in hohem Maße davon abhängig, ob es gelingt semantische Metadaten automatisch zu extrahieren und hinreichend aktuell zu halten.
  6. Dirsch-Weigand, A.; Schmidt, I.: ConWeaver : Automatisierte Wissensnetze für die semantische Suche (2006) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 6026) [ClassicSimilarity], result of:
              0.07648084 = score(doc=6026,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 6026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6026)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Google ist zum Inbegriff einer Suchmaschine geworden. Doch ist in Fachkreisen klar, dass Volltexsuchtmaschinen wie Google auch deutliche Schwächen aufweisen und deshalb für die effiziente Suche in Fachportalen, Intranets und Enterprise-Content-Management-Systemen oft nicht ausreichen. Weil Volltextsuchmaschinen nur mit dem genauen Wortlaut suchen, finden sie einerseits Informationen nicht, die zwar dem Inhalt, nicht aber den genauen Formulierungen der Suchanfrage entsprechen. Bezeichnungsalternativen, sprachlichen Varianten sowie fremdsprachliche Benennungen werden nicht als bedeutungsgleich erkannt. Andererseits entstehen unpräzise Suchergebnisse, weil gleich lautende Bezeichnungen unterschiedlicher Bedeutung nicht unterschieden werden. Diese Probleme geht die semantische Suchmaschine ConWeaver an, die das Fraunhofer Institut Integrierte Informations- und Publikationssysteme (Fraunhofer IPSI) in Darmstadt entwickelt hat. An Stelle eines Volltextindexes setzt sie ein Wissensnetz als Suchindex ein. Im Unterschied zu den meisten anderen ontologiebasierten Softwareprodukten baut die Software ConWeaver dieses Wissensnetz automatisiert auf.
  7. Peters, I.; Stock, W.G.: Folksonomies in Wissensrepräsentation und Information Retrieval (2008) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 1597) [ClassicSimilarity], result of:
              0.07648084 = score(doc=1597,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 1597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1597)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die populären Web 2.0-Dienste werden von Prosumern - Produzenten und gleichsam Konsumenten - nicht nur dazu genutzt, Inhalte zu produzieren, sondern auch, um sie inhaltlich zu erschließen. Folksonomies erlauben es dem Nutzer, Dokumente mit eigenen Schlagworten, sog. Tags, zu beschreiben, ohne dabei auf gewisse Regeln oder Vorgaben achten zu müssen. Neben einigen Vorteilen zeigen Folksonomies aber auch zahlreiche Schwächen (u. a. einen Mangel an Präzision). Um diesen Nachteilen größtenteils entgegenzuwirken, schlagen wir eine Interpretation der Tags als natürlichsprachige Wörter vor. Dadurch ist es uns möglich, Methoden des Natural Language Processing (NLP) auf die Tags anzuwenden und so linguistische Probleme der Tags zu beseitigen. Darüber hinaus diskutieren wir Ansätze und weitere Vorschläge (Tagverteilungen, Kollaboration und akteurspezifische Aspekte) hinsichtlich eines Relevance Rankings von getaggten Dokumenten. Neben Vorschlägen auf ähnliche Dokumente ("more like this!") erlauben Folksonomies auch Hinweise auf verwandte Nutzer und damit auf Communities ("more like me!").
  8. Auer, S.; Sens, I.; Stocker, M.: Erschließung wissenschaftlicher Literatur mit dem Open Research Knowledge Graph (2020) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 551) [ClassicSimilarity], result of:
              0.07648084 = score(doc=551,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 551, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=551)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Weitergabe von Wissen hat sich seit vielen hundert Jahren nicht grundlegend verändert: Sie erfolgt in der Regel dokumentenbasiert - früher als klassischer Aufsatz auf Papier gedruckt, heute als PDF. Bei jährlich rund 2,5 Millionen neuen Forschungsbeiträgen ertrinken die Forschenden in einer Flut pseudodigitalisierter PDF-Publikationen. Die Folge: Die Forschung wird ernsthaft geschwächt. Denn viele Forschungsergebnisse können durch andere nicht reproduziert werden, es gibt mehr und mehr Redundanzen und das Meer von Publikationen ist unübersichtlich. Deshalb denkt die TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften Wissenskommunikation neu: Statt auf statische PDF-Artikel setzt die TIB auf Wissensgraphen. Sie arbeitet daran, Wissen unterschiedlichster Form - Texte, Bilder, Grafiken, Audio- und Video-Dateien, 3D-Modelle und vieles mehr - intuitiv mithilfe dynamischer Wissensgraphen zu vernetzen. Der Wissensgraph soll verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar darstellen, sodass völlig neue Zusammenhänge von Wissen zutage treten und zur Lösung globaler Probleme beitragen könnten. Die großen gesellschaftlichen Herausforderungen verlangen Interdisziplinarität und das Zusammenfügen von Erkenntnis-Einzelteilen. Mit dem Wissensgraphen kann das gelingen und der Fluss wissenschaftlicher Erkenntnisse revolutioniert werden.
  9. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.02
    0.018026708 = product of:
      0.036053415 = sum of:
        0.036053415 = product of:
          0.07210683 = sum of:
            0.07210683 = weight(_text_:probleme in 4605) [ClassicSimilarity], result of:
              0.07210683 = score(doc=4605,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2964502 = fieldWeight in 4605, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4605)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  10. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06947811 = score(doc=5576,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    13.12.2017 14:17:22
  11. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06947811 = score(doc=3406,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30. 5.2010 16:22:35
  12. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.06947811 = score(doc=4523,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  13. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 2731) [ClassicSimilarity], result of:
              0.06373403 = score(doc=2731,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 2731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2731)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  14. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.01
    0.0138956215 = product of:
      0.027791243 = sum of:
        0.027791243 = product of:
          0.055582486 = sum of:
            0.055582486 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.055582486 = score(doc=318,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.2021 12:43:05
  15. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.01
    0.012746807 = product of:
      0.025493614 = sum of:
        0.025493614 = product of:
          0.05098723 = sum of:
            0.05098723 = weight(_text_:probleme in 3894) [ClassicSimilarity], result of:
              0.05098723 = score(doc=3894,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.20962194 = fieldWeight in 3894, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3894)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
  16. Wirklichkeit und Wissen : Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften (1992) 0.01
    0.012746807 = product of:
      0.025493614 = sum of:
        0.025493614 = product of:
          0.05098723 = sum of:
            0.05098723 = weight(_text_:probleme in 4606) [ClassicSimilarity], result of:
              0.05098723 = score(doc=4606,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.20962194 = fieldWeight in 4606, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4606)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Enthält die Beiträge: KUTSCHERA, F. von: Der erkenntnistheoretische Realismus; FRANZEN, W.: Idealismus statt Realismus? Realismus plus Skeptizismus!; KREISER, L.: Bruno Bauchs idealistischer Realismus. Votum im Anschluß an Winfried Franzen; DIEDERICH, W.: Probleme und Grenzen des Anti-Realismus; RHEINWALD, R.: Der Schluß auf die beste Erklärung und das Induktionsproblem. Votum zu Werner Diederich; BÜHLER, A.: Antirealismus und Verifikationismus; RHEINWALD, R.: Bemerkungen zu einem bedeutungstheoretischen Argument gegen den Realismus. Votum zu Axel Bühler; ERPENBECK, J.: Psychologie: Gratwanderung zwischen Realismus und Konstruktivismus; ROTH, G. u. H. SCHWEGLER: Kognitive Referenz und Selbstreferentialität des Gehirns. Ein Beitrag zur Klärung des Verhältnisses zwischen Erkenntnistheorie und Hirnforschung; Voten dazu von: H. TETENS, M. BOENKE u. L. LÄSKER; WILDGEN, W.: Semantischer Realismus und Antirealismus in der Sprachtheorie; BECKERMANN, A.: Wie real sind intentionale Zustände? Dennett zwischen Fodor und den Churchlands; ENGEL, P.: Teleosemantics: realistic or anti-realistic? Votum; HOLENSTEIN, E.: Ein Grund, kein Epiphänomenalist zu sein. Votum; SANDKÜHLER, H.J.: Epistemologischer Realismus und die Wirklichkeit des Wissens. Eine Verteidigung des Philosophie des Geistes gegen Naturalismus und Reduktionismus; PÄTZOLD, D.: Intellectus effabilis. Votum zu Hans Jörg Sandkühler; METSCHER, T.: 'Episteme': Wissen als anthropologisches Datum. Grundsätze einer elementaren Epistemologie. Votum zu Hans Jörg Sandkühler; PASTERNACK, G.: Realismus vs Antirealismus. Ein wissenschaftsphilosophisches Explikationsproblem. Votum
  17. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.01
    0.012158669 = product of:
      0.024317337 = sum of:
        0.024317337 = product of:
          0.048634674 = sum of:
            0.048634674 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.048634674 = score(doc=1852,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11. 2.2011 18:22:58
  18. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.012158669 = product of:
      0.024317337 = sum of:
        0.024317337 = product of:
          0.048634674 = sum of:
            0.048634674 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.048634674 = score(doc=4324,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11. 2.2011 18:22:25
  19. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.01
    0.012158669 = product of:
      0.024317337 = sum of:
        0.024317337 = product of:
          0.048634674 = sum of:
            0.048634674 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.048634674 = score(doc=4792,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  20. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.01
    0.010421716 = product of:
      0.020843431 = sum of:
        0.020843431 = product of:
          0.041686863 = sum of:
            0.041686863 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
              0.041686863 = score(doc=4011,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.23214069 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly