Search (71 results, page 1 of 4)

  • × theme_ss:"Wissensrepräsentation"
  1. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.06
    0.059083853 = product of:
      0.118167706 = sum of:
        0.118167706 = sum of:
          0.07648084 = weight(_text_:probleme in 4095) [ClassicSimilarity], result of:
            0.07648084 = score(doc=4095,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.31443292 = fieldWeight in 4095, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.046875 = fieldNorm(doc=4095)
          0.041686863 = weight(_text_:22 in 4095) [ClassicSimilarity], result of:
            0.041686863 = score(doc=4095,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.23214069 = fieldWeight in 4095, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4095)
      0.5 = coord(1/2)
    
    Abstract
    Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  2. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.04
    0.040723577 = product of:
      0.081447154 = sum of:
        0.081447154 = product of:
          0.24434146 = sum of:
            0.24434146 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.24434146 = score(doc=400,freq=2.0), product of:
                0.43475732 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05128058 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  3. Reitbauer, A.: IT Konsolidierung und Informationsintegration (2006) 0.03
    0.031546738 = product of:
      0.063093476 = sum of:
        0.063093476 = product of:
          0.12618695 = sum of:
            0.12618695 = weight(_text_:probleme in 5806) [ClassicSimilarity], result of:
              0.12618695 = score(doc=5806,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.51878786 = fieldWeight in 5806, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5806)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieser Artikel betrachtet das Problem steigender Komplexität in IT Systemen. Als wesentlicher Aspekt wird Interoperabilität zwischen Anwendungen dargestellt. Als Modell für die Vielschichtigkeit von Integrationszenarien wird ein Modell präsentiert. das Integration und deren Auswirkungen auf verschiedenen Ebenen darstellt. Semantische Technologien werden in Relation zu bestehenden Ansätzen, wie Entity Relationship Diagrammen und objektorientierter Modellierung, gesetzt. Ein konkretes Beispiel demonstriert die unterschiedlichen Modellierungsergebnisse. Als wesentliche Szenarien für die Verwendung von semantischen Technologien werden Daten- und Prozessintegration dargestellt. Hierbei werden zuerst Probleme mit bestehenden Technologien präsentiert. Anschließend folgt anhand von Beispielen die Demonstration, wie semantische Technologien helfen können, diese Probleme zu lösen.
  4. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.027149051 = product of:
      0.054298103 = sum of:
        0.054298103 = product of:
          0.16289431 = sum of:
            0.16289431 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.16289431 = score(doc=701,freq=2.0), product of:
                0.43475732 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05128058 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  5. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.03
    0.027149051 = product of:
      0.054298103 = sum of:
        0.054298103 = product of:
          0.16289431 = sum of:
            0.16289431 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.16289431 = score(doc=5820,freq=2.0), product of:
                0.43475732 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05128058 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  6. Reif, G.: Semantische Annotation (2006) 0.03
    0.025493614 = product of:
      0.05098723 = sum of:
        0.05098723 = product of:
          0.10197446 = sum of:
            0.10197446 = weight(_text_:probleme in 5807) [ClassicSimilarity], result of:
              0.10197446 = score(doc=5807,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.41924387 = fieldWeight in 5807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5807)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.
  7. Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 620) [ClassicSimilarity], result of:
              0.07648084 = score(doc=620,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 620, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=620)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
  8. Leidig, T.: Ontologien für die Informationsintegration in Geschäftsanwendungen (2006) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 6024) [ClassicSimilarity], result of:
              0.07648084 = score(doc=6024,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 6024, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6024)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Informationsintegration auf Basis semantischer Modelle ist ein viel versprechender Ansatz zur Bewältigung des Informationsüberflusses. Informationen und Wissen stehen oft in großer Menge zur Verfügung, doch es ist sehr schwierig, das Wissen in einer spezifischen Situation zu fin-den oder überhaupt gewahr zu sein, dass adäquate Informationen vorhanden sind. Der Prozess des Suchens erfordert sehr viel Geduld und Erfahrung. Reine textuelle Suchmaschinen wie Google führen leider oft nicht oder nicht effizient genug zum Ziel. Eine zentrale Herausforderung ist daher die Filterung und strukturierte Aufbereitung von Informationen im Kontext der aktuellen Arbeitsumgebung und der jeweiligen Aufgabenstellung. Semantische Metadaten können dabei helfen, diese Abbildung vorhandener Informationsquellen in den Aufgabenkontext zu bewerkstelligen. Doch wie kommt man zu geeigneten, reichhaltigen semantischen Metadaten? Nach heutiger Praxis geschieht das hauptsächlich durch manuelle Verfahren, die allerdings auch viele Probleme aufwerfen. Daher ist der Erfolg semantischer Informationsintegration in hohem Maße davon abhängig, ob es gelingt semantische Metadaten automatisch zu extrahieren und hinreichend aktuell zu halten.
  9. Dirsch-Weigand, A.; Schmidt, I.: ConWeaver : Automatisierte Wissensnetze für die semantische Suche (2006) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 6026) [ClassicSimilarity], result of:
              0.07648084 = score(doc=6026,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 6026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6026)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Google ist zum Inbegriff einer Suchmaschine geworden. Doch ist in Fachkreisen klar, dass Volltexsuchtmaschinen wie Google auch deutliche Schwächen aufweisen und deshalb für die effiziente Suche in Fachportalen, Intranets und Enterprise-Content-Management-Systemen oft nicht ausreichen. Weil Volltextsuchmaschinen nur mit dem genauen Wortlaut suchen, finden sie einerseits Informationen nicht, die zwar dem Inhalt, nicht aber den genauen Formulierungen der Suchanfrage entsprechen. Bezeichnungsalternativen, sprachlichen Varianten sowie fremdsprachliche Benennungen werden nicht als bedeutungsgleich erkannt. Andererseits entstehen unpräzise Suchergebnisse, weil gleich lautende Bezeichnungen unterschiedlicher Bedeutung nicht unterschieden werden. Diese Probleme geht die semantische Suchmaschine ConWeaver an, die das Fraunhofer Institut Integrierte Informations- und Publikationssysteme (Fraunhofer IPSI) in Darmstadt entwickelt hat. An Stelle eines Volltextindexes setzt sie ein Wissensnetz als Suchindex ein. Im Unterschied zu den meisten anderen ontologiebasierten Softwareprodukten baut die Software ConWeaver dieses Wissensnetz automatisiert auf.
  10. Peters, I.; Stock, W.G.: Folksonomies in Wissensrepräsentation und Information Retrieval (2008) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 1597) [ClassicSimilarity], result of:
              0.07648084 = score(doc=1597,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 1597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1597)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die populären Web 2.0-Dienste werden von Prosumern - Produzenten und gleichsam Konsumenten - nicht nur dazu genutzt, Inhalte zu produzieren, sondern auch, um sie inhaltlich zu erschließen. Folksonomies erlauben es dem Nutzer, Dokumente mit eigenen Schlagworten, sog. Tags, zu beschreiben, ohne dabei auf gewisse Regeln oder Vorgaben achten zu müssen. Neben einigen Vorteilen zeigen Folksonomies aber auch zahlreiche Schwächen (u. a. einen Mangel an Präzision). Um diesen Nachteilen größtenteils entgegenzuwirken, schlagen wir eine Interpretation der Tags als natürlichsprachige Wörter vor. Dadurch ist es uns möglich, Methoden des Natural Language Processing (NLP) auf die Tags anzuwenden und so linguistische Probleme der Tags zu beseitigen. Darüber hinaus diskutieren wir Ansätze und weitere Vorschläge (Tagverteilungen, Kollaboration und akteurspezifische Aspekte) hinsichtlich eines Relevance Rankings von getaggten Dokumenten. Neben Vorschlägen auf ähnliche Dokumente ("more like this!") erlauben Folksonomies auch Hinweise auf verwandte Nutzer und damit auf Communities ("more like me!").
  11. Drexel, G.: Knowledge engineering for intelligent information retrieval (2001) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 4043) [ClassicSimilarity], result of:
              0.07648084 = score(doc=4043,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 4043, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4043)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Multilinguale Probleme
  12. Auer, S.; Sens, I.; Stocker, M.: Erschließung wissenschaftlicher Literatur mit dem Open Research Knowledge Graph (2020) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 551) [ClassicSimilarity], result of:
              0.07648084 = score(doc=551,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 551, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=551)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Weitergabe von Wissen hat sich seit vielen hundert Jahren nicht grundlegend verändert: Sie erfolgt in der Regel dokumentenbasiert - früher als klassischer Aufsatz auf Papier gedruckt, heute als PDF. Bei jährlich rund 2,5 Millionen neuen Forschungsbeiträgen ertrinken die Forschenden in einer Flut pseudodigitalisierter PDF-Publikationen. Die Folge: Die Forschung wird ernsthaft geschwächt. Denn viele Forschungsergebnisse können durch andere nicht reproduziert werden, es gibt mehr und mehr Redundanzen und das Meer von Publikationen ist unübersichtlich. Deshalb denkt die TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften Wissenskommunikation neu: Statt auf statische PDF-Artikel setzt die TIB auf Wissensgraphen. Sie arbeitet daran, Wissen unterschiedlichster Form - Texte, Bilder, Grafiken, Audio- und Video-Dateien, 3D-Modelle und vieles mehr - intuitiv mithilfe dynamischer Wissensgraphen zu vernetzen. Der Wissensgraph soll verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar darstellen, sodass völlig neue Zusammenhänge von Wissen zutage treten und zur Lösung globaler Probleme beitragen könnten. Die großen gesellschaftlichen Herausforderungen verlangen Interdisziplinarität und das Zusammenfügen von Erkenntnis-Einzelteilen. Mit dem Wissensgraphen kann das gelingen und der Fluss wissenschaftlicher Erkenntnisse revolutioniert werden.
  13. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.02
    0.018026708 = product of:
      0.036053415 = sum of:
        0.036053415 = product of:
          0.07210683 = sum of:
            0.07210683 = weight(_text_:probleme in 4605) [ClassicSimilarity], result of:
              0.07210683 = score(doc=4605,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2964502 = fieldWeight in 4605, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4605)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  14. Schmitz-Esser, W.: Language of general communication and concept compatibility (1996) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 6089) [ClassicSimilarity], result of:
              0.06947811 = score(doc=6089,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 6089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6089)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    S.11-22
  15. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06947811 = score(doc=5576,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    13.12.2017 14:17:22
  16. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
              0.06947811 = score(doc=539,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26.12.2011 13:22:07
  17. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06947811 = score(doc=3406,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30. 5.2010 16:22:35
  18. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.02
    0.017369527 = product of:
      0.034739055 = sum of:
        0.034739055 = product of:
          0.06947811 = sum of:
            0.06947811 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.06947811 = score(doc=4523,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  19. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 714) [ClassicSimilarity], result of:
              0.06373403 = score(doc=714,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 714, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=714)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
  20. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 2731) [ClassicSimilarity], result of:
              0.06373403 = score(doc=2731,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 2731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2731)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.

Authors

Years

Languages

  • e 48
  • d 22

Types

  • a 53
  • el 13
  • x 6
  • m 4
  • n 1
  • r 1
  • s 1
  • More… Less…