Search (120 results, page 6 of 6)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  1. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.01
    0.005024861 = product of:
      0.035174027 = sum of:
        0.035174027 = weight(_text_:und in 3894) [ClassicSimilarity], result of:
          0.035174027 = score(doc=3894,freq=30.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.3793607 = fieldWeight in 3894, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3894)
      0.14285715 = coord(1/7)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.4, 245
  2. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.00
    0.004865301 = product of:
      0.034057103 = sum of:
        0.034057103 = weight(_text_:und in 4425) [ClassicSimilarity], result of:
          0.034057103 = score(doc=4425,freq=18.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.3673144 = fieldWeight in 4425, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
  3. Stock, W.G.: Wissensrepräsentation (2014) 0.00
    0.004587049 = product of:
      0.032109343 = sum of:
        0.032109343 = weight(_text_:und in 5153) [ClassicSimilarity], result of:
          0.032109343 = score(doc=5153,freq=4.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.34630734 = fieldWeight in 5153, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5153)
      0.14285715 = coord(1/7)
    
    Abstract
    Wissensrepräsentation thematisiert die Erstellung von Stellvertretern (Repräsentanten bzw. Surrogaten), die die Aboutness eines Dokuments abbilden. Man unterscheidet bei der Wissensrepräsentation zwischen Informationsfiltern (z.B. Wissensordnungen) und Methoden der Informationsverdichtung (z.B. Extracts oder Abstracts).
    Source
    Lexikon der Bibliotheks- und Informationswissenschaft, Band 2, Lieferung 7
  4. Weller, K.: Ontologien (2013) 0.00
    0.004587049 = product of:
      0.032109343 = sum of:
        0.032109343 = weight(_text_:und in 715) [ClassicSimilarity], result of:
          0.032109343 = score(doc=715,freq=4.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.34630734 = fieldWeight in 715, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=715)
      0.14285715 = coord(1/7)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  5. Reitbauer, A.: IT Konsolidierung und Informationsintegration (2006) 0.00
    0.0045409473 = product of:
      0.031786628 = sum of:
        0.031786628 = weight(_text_:und in 5806) [ClassicSimilarity], result of:
          0.031786628 = score(doc=5806,freq=8.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.34282678 = fieldWeight in 5806, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5806)
      0.14285715 = coord(1/7)
    
    Abstract
    Dieser Artikel betrachtet das Problem steigender Komplexität in IT Systemen. Als wesentlicher Aspekt wird Interoperabilität zwischen Anwendungen dargestellt. Als Modell für die Vielschichtigkeit von Integrationszenarien wird ein Modell präsentiert. das Integration und deren Auswirkungen auf verschiedenen Ebenen darstellt. Semantische Technologien werden in Relation zu bestehenden Ansätzen, wie Entity Relationship Diagrammen und objektorientierter Modellierung, gesetzt. Ein konkretes Beispiel demonstriert die unterschiedlichen Modellierungsergebnisse. Als wesentliche Szenarien für die Verwendung von semantischen Technologien werden Daten- und Prozessintegration dargestellt. Hierbei werden zuerst Probleme mit bestehenden Technologien präsentiert. Anschließend folgt anhand von Beispielen die Demonstration, wie semantische Technologien helfen können, diese Probleme zu lösen.
  6. Reimer, U.: Einführung in die Wissensrepräsentation : netzartige und schema-basierte Repräsentationsformate (1991) 0.00
    0.0045409473 = product of:
      0.031786628 = sum of:
        0.031786628 = weight(_text_:und in 1566) [ClassicSimilarity], result of:
          0.031786628 = score(doc=1566,freq=8.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.34282678 = fieldWeight in 1566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1566)
      0.14285715 = coord(1/7)
    
    Classification
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    RVK
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    Series
    Leitfäden und Monographien der Informatik
  7. Becker, H.-G.: MODS2FRBRoo : Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen (2010) 0.00
    0.0045409473 = product of:
      0.031786628 = sum of:
        0.031786628 = weight(_text_:und in 4265) [ClassicSimilarity], result of:
          0.031786628 = score(doc=4265,freq=8.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.34282678 = fieldWeight in 4265, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4265)
      0.14285715 = coord(1/7)
    
    Abstract
    Es wird ein Verfahren vorgestellt, mit dem bereits existierende bibliografische Daten in die CIDOC CRM/FRBRoo-Umgebung übertragen werden können. Es handelt sich dabei um einen mehrstufigen XSLT-Prozess, der im MODS-Format vorliegende bibliografische Daten in ein FRBRoo-konformes RDF umwandelt. Dazu werden die unterschiedlichen Publikationstypen in FRBRoo identifiziert und modelliert. Für die Abbildung der einzelnen bibliografischen Kategorien aus dem verwendeten Austauschformat auf die FRBRoo-Klassen wird auf Konzepte von RDA zurückgegriffen.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  8. Weiermann, S.L.: Semantische Netze und Begriffsdeskription in der Wissensrepräsentation (2000) 0.00
    0.0045409473 = product of:
      0.031786628 = sum of:
        0.031786628 = weight(_text_:und in 3001) [ClassicSimilarity], result of:
          0.031786628 = score(doc=3001,freq=8.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.34282678 = fieldWeight in 3001, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
      0.14285715 = coord(1/7)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt (in Kürze): Einleitung. Wissensrepräsentation. Semantische Netze. Wissensrepräsentationssysteme. Empirische Analyse und Systemerweiterungen.
  9. Zeh, T.: Ontologien in den Informationswissenschaften (2011) 0.00
    0.0044943723 = product of:
      0.031460606 = sum of:
        0.031460606 = weight(_text_:und in 4981) [ClassicSimilarity], result of:
          0.031460606 = score(doc=4981,freq=6.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.33931053 = fieldWeight in 4981, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4981)
      0.14285715 = coord(1/7)
    
    Content
    "Seit etwa zwei Jahren gibt es im webbasieren sozialen Netzwerk XING (vormals openBC) die Arbeitsgruppe Ontologien in den Informationswissenschaften: Theorien, Methodologien, Technologien und Anwendungen. Die von Anatol Reibold initiierte Arbeitsgruppe mit inzwischen mehr als 800 Mitgliedern will vor allem das Thema Ontologien in den Informationswissenschaften voranbringen, ein Netzwerk von Ontologen autbauen und Wissen über das Thema austauschen. Im Forum werden grundsätzliche wie auch aktuelle Themen diskutiert, über neue Entwicklungen berichtet und Tipps zur Literatur gegeben."
  10. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.00
    0.004048509 = product of:
      0.028339561 = sum of:
        0.028339561 = product of:
          0.056679122 = sum of:
            0.056679122 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.056679122 = score(doc=4523,freq=2.0), product of:
                0.14649509 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04183387 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  11. Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010) 0.00
    0.0039725015 = product of:
      0.027807508 = sum of:
        0.027807508 = weight(_text_:und in 4257) [ClassicSimilarity], result of:
          0.027807508 = score(doc=4257,freq=12.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.29991096 = fieldWeight in 4257, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4257)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  12. Kienreich, W.; Strohmaier, M.: Wissensmodellierung - Basis für die Anwendung semantischer Technologien (2006) 0.00
    0.0039325757 = product of:
      0.027528027 = sum of:
        0.027528027 = weight(_text_:und in 5804) [ClassicSimilarity], result of:
          0.027528027 = score(doc=5804,freq=6.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.2968967 = fieldWeight in 5804, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5804)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Transfer und die Nutzung von Wissen stellen ein zentrales Thema hei der Anwendung semantischer Technologien dar. In diesem Zusammenhang befasst sich das Gebiet der Wissensmodellierung mit der Explizierung von Wissen in formale, sowohl von Menschen als auch von Maschinen interpretierbare, Form. Ziel dieses Beitrags ist es aufzuzeigen. wie Methoden der Wissensmodellierung die Grundlage für die Gestaltung von Anwendungen auf Basis semantischer Technologien bilden. Der Beitrag liefert eine Definition eines Wissensbegriffs, erklärt eine Reihe von Formen der abstrakten Wissensrepräsentation und führt ein Kategorisierungsschema für aktuelle Ansätze zur Modellierung ein. Anschließend wird ein Überblick über agenten- und prozessorientierte Modellierungsansätze gegeben. die sowohl auf die Abbildung der realen Welt als auch auf die Abbildung von Software eingehen.
  13. Voß, J.: ¬Das Simple Knowledge Organisation System (SKOS) als Kodierungs- und Austauschformat der DDC für Anwendungen im Semantischen Web (2007) 0.00
    0.0038922403 = product of:
      0.027245682 = sum of:
        0.027245682 = weight(_text_:und in 243) [ClassicSimilarity], result of:
          0.027245682 = score(doc=243,freq=2.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.29385152 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=243)
      0.14285715 = coord(1/7)
    
  14. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.00
    0.0036263808 = product of:
      0.025384665 = sum of:
        0.025384665 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.025384665 = score(doc=5901,freq=10.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.27378 = fieldWeight in 5901, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
      0.14285715 = coord(1/7)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  15. Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016) 0.00
    0.0036263808 = product of:
      0.025384665 = sum of:
        0.025384665 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
          0.025384665 = score(doc=4570,freq=10.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.27378 = fieldWeight in 4570, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
      0.14285715 = coord(1/7)
    
    Abstract
    Cognitive Maps sind mentale Karten, welche jeder Mensch besitzt. Es handelt sich dabei um eine Reflexion der jeweiligen Umwelt. Cognitive Mapping ist eine Methode, welche diese mentale Karte sichtbar macht. Aufgrund dieser Visualisierung können Erkenntnisse darüber gewonnen werden, was Menschen an einem Ort oder in einem Raum tun und wahrnehmen. Die Methode hat verschiede Anwendungstechniken, welche sich in sechs Kategorien teilen: Aufgabenlösung, Elemente orten, Sketch Map erstellen, Zonen und Gebiete einzeichnen, Weg- und Ortsbeschreibung sowie Kognitive Befragung. Anhand dieser lassen sich Untersuchungen beliebig kombinieren. Die Anwendung von Cognitive Mapping sowie eine einfache Befragung in der Kantonsbibliothek Graubünden hat ergeben, dass die Methode für Bibliotheken sinnvoll ist. Allerdings sollte bei zukünftigen Anwendungen die Punkte Gesamtaufwand, Untersuchungsaufbau, Teilnehmer-Zusammensetzung und Auswertungs-Aufwand angepasst werden.
    Content
    "Das Thema 'Cognitive Map einer Bibliothek' hat mich von Beginn an interessiert. Methoden anwenden, um den Bedürfnissen der Nutzer zu entsprechen, ist für Bibliotheken eine Möglichkeit sich auch in Zukunft als Wissensplatz zu positionieren. Das Spannende an dieser Arbeit war, sich zunächst in den vielen Anwendungsmöglichkeiten der Methode zurechtzufinden, einige davon auszuprobieren und schlussendlich herauszufinden, ob die Methode als sinnvoll für Bibliotheken bezeichnet werden kann."
  16. Angerer, C.: Neuronale Netze : Revolution für die Wissenschaft? (2018) 0.00
    0.0032435337 = product of:
      0.022704735 = sum of:
        0.022704735 = weight(_text_:und in 4023) [ClassicSimilarity], result of:
          0.022704735 = score(doc=4023,freq=2.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.24487628 = fieldWeight in 4023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4023)
      0.14285715 = coord(1/7)
    
    Abstract
    Ein Konzept aus den 1980er Jahren nimmt durch neue Entwicklungen in der Computer-Hardware einen kometenhaften Aufschwung. Vielschichtige, »tiefe« neuronale Netze revolutionieren nicht nur die Bilderkennung und die Datenanalyse, sondern gewinnen inzwischen auch wissenschaftliche Erkenntnisse.
  17. Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004) 0.00
    0.0027522298 = product of:
      0.019265607 = sum of:
        0.019265607 = weight(_text_:und in 4681) [ClassicSimilarity], result of:
          0.019265607 = score(doc=4681,freq=4.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.20778441 = fieldWeight in 4681, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4681)
      0.14285715 = coord(1/7)
    
    Abstract
    Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
  18. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.00
    0.0025948272 = product of:
      0.018163789 = sum of:
        0.018163789 = weight(_text_:und in 7072) [ClassicSimilarity], result of:
          0.018163789 = score(doc=7072,freq=2.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.19590102 = fieldWeight in 7072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7072)
      0.14285715 = coord(1/7)
    
    Footnote
    2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
  19. Werrmann, J.: Modellierung im Kontext : Ontologie-basiertes Information Retrieval (2011) 0.00
    0.0025948272 = product of:
      0.018163789 = sum of:
        0.018163789 = weight(_text_:und in 1141) [ClassicSimilarity], result of:
          0.018163789 = score(doc=1141,freq=2.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.19590102 = fieldWeight in 1141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1141)
      0.14285715 = coord(1/7)
    
    Abstract
    Heterogene Dokumentenlandschaften in Unternehmen bergen Wissen in Form von Verknüpfungspotentialen zwischen domänenspezifischen Dokumenten verschiedener Dokumentensysteme. Um dieses teils verborgene Wissen ableiten oder generieren zu können, entwickeln wir ein Entwurfsmuster für eine Ontologie, die eine homogene Zugriffsstruktur über einer heterogenen Dokumentenlandschaft etabliert. Weiterhin beschreiben wir ein Advanced Ontology-based Information Retrieval (AIRS) Verfahren, mit dessen Hilfe diese Meta-Ontologie zur Generierung von Anfragestrategien an Dokumentensysteme und für die Dokumentenrecherche in verschiedenen Anwendungskontexten genutzt werden können.
  20. Reif, G.: Semantische Annotation (2006) 0.00
    0.0025948272 = product of:
      0.018163789 = sum of:
        0.018163789 = weight(_text_:und in 5807) [ClassicSimilarity], result of:
          0.018163789 = score(doc=5807,freq=2.0), product of:
            0.09271921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04183387 = queryNorm
            0.19590102 = fieldWeight in 5807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5807)
      0.14285715 = coord(1/7)
    
    Abstract
    In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.

Years

Types

  • a 70
  • el 25
  • x 20
  • m 9
  • r 7
  • s 2
  • n 1
  • p 1
  • More… Less…