Search (23 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  • × year_i:[2000 TO 2010}
  1. Gams, E.; Mitterdorfer, D.: Semantische Content Management Systeme (2009) 0.07
    0.06749965 = product of:
      0.10124948 = sum of:
        0.077366516 = weight(_text_:management in 4865) [ClassicSimilarity], result of:
          0.077366516 = score(doc=4865,freq=8.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.44688427 = fieldWeight in 4865, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.046875 = fieldNorm(doc=4865)
        0.02388296 = product of:
          0.04776592 = sum of:
            0.04776592 = weight(_text_:system in 4865) [ClassicSimilarity], result of:
              0.04776592 = score(doc=4865,freq=4.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.29527056 = fieldWeight in 4865, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Content Management Systeme (CMS) sind in vielen Organisationen bereits seit längerer Zeit fester Bestandteil zur Verwaltung und kollaborativen Bearbeitung von Text- und Multimedia-Inhalten. Im Zuge der rasch ansteigenden Fülle an Informationen und somit auch Wissen wird die Überschaubarkeit der Datenbestände jedoch massiv eingeschränkt. Diese und zusätzliche Anforderungen, wie automatisch Datenquellen aus dem World Wide Web (WWW) zu extrahieren, lassen traditionelle CMS immer mehr an ihre Grenzen stoßen. Dieser Beitrag diskutiert die neuen Herausforderungen an traditionelle CMS und bietet Lösungsvorschläge, wie CMS kombiniert mit semantischen Technologien diesen Herausforderungen begegnen können. Die Autoren stellen eine generische Systemarchitektur für Content Management Systeme vor, die einerseits Inhalte für das Semantic Web generieren, andererseits Content aus dem Web 2.0 syndizieren können und bei der Aufbereitung des Content den User mittels semantischer Technologien wie Reasoning oder Informationsextraktion unterstützen. Dabei wird auf Erfahrungen bei der prototypischen Implementierung von semantischer Technologie in ein bestehendes CMS System zurückgegriffen.
    Theme
    Content Management System
  2. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.02
    0.02469825 = product of:
      0.037047375 = sum of:
        0.025788838 = weight(_text_:management in 506) [ClassicSimilarity], result of:
          0.025788838 = score(doc=506,freq=2.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.14896142 = fieldWeight in 506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.011258536 = product of:
          0.022517072 = sum of:
            0.022517072 = weight(_text_:system in 506) [ClassicSimilarity], result of:
              0.022517072 = score(doc=506,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.13919188 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
    Series
    Advances in information systems and management science; 39
  3. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.02
    0.019221867 = product of:
      0.057665598 = sum of:
        0.057665598 = weight(_text_:management in 4731) [ClassicSimilarity], result of:
          0.057665598 = score(doc=4731,freq=10.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.3330879 = fieldWeight in 4731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    RSWK
    Content Management / Semantisches Netz / HyTime
    Content Management / Semantisches Netz / XML
    Subject
    Content Management / Semantisches Netz / HyTime
    Content Management / Semantisches Netz / XML
  4. Lang, A.: OmniFind: eine Plattform für semantische Suche und Textanalyse in Unternehmen (2006) 0.02
    0.015043489 = product of:
      0.045130465 = sum of:
        0.045130465 = weight(_text_:management in 6025) [ClassicSimilarity], result of:
          0.045130465 = score(doc=6025,freq=2.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.2606825 = fieldWeight in 6025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6025)
      0.33333334 = coord(1/3)
    
    Abstract
    WebSphere® Information Integrator OmniFind Edition ist die Plattform der IBM für Unternehmenssuche und Textanalyse. Zentraler Bestandteil ist hierbei die Unstructured Information Management Architecture (UIMA), eine offene Architektur, die Entwicklung und Einsatz von Textanalysetechnologie vereinheitlicht. Beschrieben wird das von OmniFind realisierte Konzept der semantischen Suche, die die durch UIMA-Komponenten erkannten Konzepte und Beziehungen für Suchbenutzer zugänglich macht. Um UIMA und OmniFind hat sich ein Netzwerk aus Partnern entwickelt, die Lösungen in Bereichen wie Automotive Quality Early Warning oder Public Image Monitoring anbieten. Im Kontext dieser Lösungen werden Ansätze, Prozesse und Technologien beschrieben, um das notwendige Domänenwissen aufzubauen.
  5. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.01
    0.014889194 = product of:
      0.04466758 = sum of:
        0.04466758 = weight(_text_:management in 3894) [ClassicSimilarity], result of:
          0.04466758 = score(doc=3894,freq=6.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.25800878 = fieldWeight in 3894, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.03125 = fieldNorm(doc=3894)
      0.33333334 = coord(1/3)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
  6. Sigel, A.: Was leisten Topic Maps? (2001) 0.01
    0.01289442 = product of:
      0.038683258 = sum of:
        0.038683258 = weight(_text_:management in 5855) [ClassicSimilarity], result of:
          0.038683258 = score(doc=5855,freq=2.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.22344214 = fieldWeight in 5855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.046875 = fieldNorm(doc=5855)
      0.33333334 = coord(1/3)
    
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Dirsch-Weigand, A.; Schmidt, I.: ConWeaver : Automatisierte Wissensnetze für die semantische Suche (2006) 0.01
    0.01289442 = product of:
      0.038683258 = sum of:
        0.038683258 = weight(_text_:management in 6026) [ClassicSimilarity], result of:
          0.038683258 = score(doc=6026,freq=2.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.22344214 = fieldWeight in 6026, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.046875 = fieldNorm(doc=6026)
      0.33333334 = coord(1/3)
    
    Abstract
    Google ist zum Inbegriff einer Suchmaschine geworden. Doch ist in Fachkreisen klar, dass Volltexsuchtmaschinen wie Google auch deutliche Schwächen aufweisen und deshalb für die effiziente Suche in Fachportalen, Intranets und Enterprise-Content-Management-Systemen oft nicht ausreichen. Weil Volltextsuchmaschinen nur mit dem genauen Wortlaut suchen, finden sie einerseits Informationen nicht, die zwar dem Inhalt, nicht aber den genauen Formulierungen der Suchanfrage entsprechen. Bezeichnungsalternativen, sprachlichen Varianten sowie fremdsprachliche Benennungen werden nicht als bedeutungsgleich erkannt. Andererseits entstehen unpräzise Suchergebnisse, weil gleich lautende Bezeichnungen unterschiedlicher Bedeutung nicht unterschieden werden. Diese Probleme geht die semantische Suchmaschine ConWeaver an, die das Fraunhofer Institut Integrierte Informations- und Publikationssysteme (Fraunhofer IPSI) in Darmstadt entwickelt hat. An Stelle eines Volltextindexes setzt sie ein Wissensnetz als Suchindex ein. Im Unterschied zu den meisten anderen ontologiebasierten Softwareprodukten baut die Software ConWeaver dieses Wissensnetz automatisiert auf.
  8. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.011598263 = product of:
      0.03479479 = sum of:
        0.03479479 = product of:
          0.06958958 = sum of:
            0.06958958 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06958958 = score(doc=3406,freq=2.0), product of:
                0.17986396 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051362853 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    30. 5.2010 16:22:35
  9. Voß, J.: ¬Das Simple Knowledge Organisation System (SKOS) als Kodierungs- und Austauschformat der DDC für Anwendungen im Semantischen Web (2007) 0.01
    0.011258537 = product of:
      0.03377561 = sum of:
        0.03377561 = product of:
          0.06755122 = sum of:
            0.06755122 = weight(_text_:system in 243) [ClassicSimilarity], result of:
              0.06755122 = score(doc=243,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.41757566 = fieldWeight in 243, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.09375 = fieldNorm(doc=243)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  10. Ulrich, W.: Simple Knowledge Organisation System (2007) 0.01
    0.011258537 = product of:
      0.03377561 = sum of:
        0.03377561 = product of:
          0.06755122 = sum of:
            0.06755122 = weight(_text_:system in 105) [ClassicSimilarity], result of:
              0.06755122 = score(doc=105,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.41757566 = fieldWeight in 105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.09375 = fieldNorm(doc=105)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  11. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.01
    0.008118784 = product of:
      0.02435635 = sum of:
        0.02435635 = product of:
          0.0487127 = sum of:
            0.0487127 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.0487127 = score(doc=1852,freq=2.0), product of:
                0.17986396 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051362853 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    11. 2.2011 18:22:58
  12. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.008118784 = product of:
      0.02435635 = sum of:
        0.02435635 = product of:
          0.0487127 = sum of:
            0.0487127 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.0487127 = score(doc=4324,freq=2.0), product of:
                0.17986396 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051362853 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    11. 2.2011 18:22:25
  13. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.01
    0.0075056907 = product of:
      0.022517072 = sum of:
        0.022517072 = product of:
          0.045034144 = sum of:
            0.045034144 = weight(_text_:system in 7072) [ClassicSimilarity], result of:
              0.045034144 = score(doc=7072,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.27838376 = fieldWeight in 7072, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7072)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Methodik der 'Mehrschichtigen Erweiterung Semantischer Netze' (MultiNet) ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation sichern
  14. Schnurr, H.-P.: Semantisches Ratgebersystem für die Roboterwartung (2006) 0.01
    0.0075056907 = product of:
      0.022517072 = sum of:
        0.022517072 = product of:
          0.045034144 = sum of:
            0.045034144 = weight(_text_:system in 5990) [ClassicSimilarity], result of:
              0.045034144 = score(doc=5990,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.27838376 = fieldWeight in 5990, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5990)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das im Folgenden dargestellte Beispiel zeigt den Einsatz eines semantischen Ratgebersystems zur Unterstützung des Kundendienstes eines Roboterherstellers. Die Optimierung von Kundendiensteinsätzen ist für viele Hersteller von komplexen Investitionsgütern ein essentieller Prozess. Semantische Technologien können helfen, gezielt Erfahrungswissen von Servicetechnikern zu erfassen und dadurch die Fehlerdiagnose am Telefon durch Rückfragen vom System zu verbessern oder den Fehler ganz zu beseitigen, Servicetechniker einzuarbeiten, sie besser auf ihren Einsatz vorzubereiten und sie vor Ort bei der Lösung von Problemen zu unterstützen
  15. Fischer, D.H.: ¬Ein Lehrbeispiel für eine Ontologie : OpenCyc (2004) 0.01
    0.007342666 = product of:
      0.022027997 = sum of:
        0.022027997 = product of:
          0.044055995 = sum of:
            0.044055995 = weight(_text_:system in 4568) [ClassicSimilarity], result of:
              0.044055995 = score(doc=4568,freq=10.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.2723372 = fieldWeight in 4568, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4568)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Es wird ein einführender Überblick über das seit Frühjahr 2002 allgemein verfügbare Ontologiesystem OpenCyc und seine gegenwärtige Wissensbasis gegeben. Das System ist Prototyp eines logikbasierten Wissensrepräsentationssystems und der lnhalt der fortschreib-baren Wissensbasis ist eine universelle Dachontologie, die als ein Extrakt aus langjähriger Erfahrung mit ihrer Anwendung angesehen werden kann. Die Wissensrepräsentationssprache CycL von OpenCyc konkurriert mit der bisher weniger ausdrucksstarken Sprache OWL, die von den W3C-Gremien für das "Semantic Web"standardisiert wird.
    Content
    Wer über Ontologien und Ontologiesysteme spricht, sollte auch das System OpenCyc kennen. Aber was heißt hier "kennen"? Ich habe mich als Leser und experimentierender Benutzer mit diesem System intensiver befasst und unter einer Reihe von spezielleren Fragen an das System meine Erfahrungen in einigen Arbeitspapieren protokolliert. Sie sind über das Internet zugänglich'. Hier möchte ich der allgemeinen Orientierung über OpenCyc dienende Anmerkungen dazugeben. Bereits eine Recherche mit der Suchmaschine Google, den Suchworten "Cyc OpenCyc" und Beschränkung der Quellen auf Sprache Deutsch oder Herkunft Deutschland erbringt einige der auch hier wiedergegebenen vordergründigen Informationen, sie zeigt aber auch, dass sich Professoren oder Studenten im Jahr 2003 z.B. in Ulm, Heidelberg, Berlin, Bamberg, Bonn und Darmstadt mit dem Thema Cyc und OpenCyc beschäftigt haben entsprechend meiner Titelthese.
    Das Projekt Cyc ist im Jahre 1984 angetreten mit der Zielsetzung, im großen Maßstab Alltags- und enzyklopädisches Wissen in einem einheitlichen System zu formalisieren im Gegensatz zu den bisherigen Versuchen der jeweiligen Repräsentation sektoralen Expertenwissens. Nachdem man sich dem Mythos Cyc zunächst nur über Publikationen nähern konntet, wurde dann 1997 als Textdatei Cycs "Upper Ontology" durch die Firma Cycorp Inc. zugänglich gemacht. Sie enthielt aber einiges nicht, was beschrieben worden war: z.B. Regeln und die Bindung von Aussagen an "Mikrotheorien". Entsprechend dieser Beschränkung war es mir möglich, den Inhalt dieser Datei strukturell verlustfrei in mein objektorientiertes, generisches Thesaurussystem "TerminologyFramework" einzubringen. Im April 200z wurden dann unter dem Namen OpenCyc nicht nur der Inhalt eines Auszugs aus Cycorps Ontologie, sondern auch zugehörige Werkzeuge zum lesenden Stöbern, Ändern und Schließen in einem ersten Release 0.6 zugänglich. Dazu findet man reichlich tutorielles Material, jedoch ist es nicht exakt abgestimmt auf die aktuell vorliegende Wissensbasis, sowie allerhand Dokumentation; vor allem aber findet man zum Herunterladen das Softwarepaket samt Wissensbasis für Windows NT/2000/XP- oder für Linux-Systeme. In welchem Verhältnis das nun kostenlos mit einer "GNU Lesser General Public License" verfügbare OpenCyc zu dem kommerziellen "Full Cyc" der Firma Cycorp steht, darüber weiß ich nichts aus erster Hand; die von mir für OpenCyc ermittelten Zahlen (s.u.) stehen zu neueren Angaben für Cyc in einem Größenordnungsverhältnis von ca. 1 zu 10. Informationen über realisierte Anwendungen kann man der Firmenselbstdarstellung$ und den von dort erreichbaren "white papers" entnehmen. Auf der Firmeneingangsseite findet man in Gestalt einer Pyramide eine Inhaltsübersicht der Ontologie von Cyc (siehe Abbildung 1): Beim Darüberfahren mit der Maus wird das dort wie auch hier kaum leserliche Kleingedruckte im Feld links oben lesbar und durch Klicken wird eine Inhaltsbeschreibung des jeweiligen Begriffsbereichs im Feld unten gegeben. OpenCyc stellt wohl einen exemplarischen Auszug aus dem oberen Teil der Pyramide oberhalb "Domain-Specific Knowledge" dar.
  16. Voß, J.: Vom Social Tagging zum Semantic Tagging (2008) 0.01
    0.0065674796 = product of:
      0.019702438 = sum of:
        0.019702438 = product of:
          0.039404877 = sum of:
            0.039404877 = weight(_text_:system in 2884) [ClassicSimilarity], result of:
              0.039404877 = score(doc=2884,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.2435858 = fieldWeight in 2884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2884)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Social Tagging als freie Verschlagwortung durch Nutzer im Web wird immer häufiger mit der Idee des Semantic Web in Zusammenhang gebracht. Wie beide Konzepte in der Praxis konkret zusammenkommen sollen, bleibt jedoch meist unklar. Dieser Artikel soll hier Aufklärung leisten, indem die Kombination von Social Tagging und Semantic Web in Form von Semantic Tagging mit dem Simple Knowledge Organisation System dargestellt und auf die konkreten Möglichkeiten, Vorteile und offenen Fragen der Semantischen Indexierung eingegangen wird.
  17. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.01
    0.0057991315 = product of:
      0.017397394 = sum of:
        0.017397394 = product of:
          0.03479479 = sum of:
            0.03479479 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.03479479 = score(doc=1670,freq=2.0), product of:
                0.17986396 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051362853 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    26. 9.2006 21:00:22
  18. Haase, P.; Tempich, C.: Wissensaustausch mit semantikbasierten Peer-to-Peer-Systemen (2006) 0.01
    0.0056292685 = product of:
      0.016887804 = sum of:
        0.016887804 = product of:
          0.03377561 = sum of:
            0.03377561 = weight(_text_:system in 6017) [ClassicSimilarity], result of:
              0.03377561 = score(doc=6017,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.20878783 = fieldWeight in 6017, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6017)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Austausch von Wissen kann in Peer-to-Peer-Systemen effizient gestaltet werden und hat damit ein großes Anwendungspotenzial innerhalb von Unternehmen und für virtuelle Organisationen im Allgemeinen. Dieser Beitrag konzentriert sich nicht auf Systeme die den Austausch unstrukturierten Daten (wie Multimediadaten) unterstützen, sondern auf Ansätze die den Austausch von semantischen Wissensstrukturen in Peer-to-Peer-Systemen unterstützen. Das Wissen auf den einzelnen Peers wird in solchen Systemen mit Hilfe einer Ontologie beschrieben. Insbesondere können in diesen Systemen die semantischen Wissensstrukturen dazu benutzt werden, Anfragen effektiver innerhalb des Netzwerkes zu verteilen und gleich gesinnte Nutzer zusammenzuführen. In diesem Zusammenhang präsentieren wir einen Algorithmus für das effektive Routing von Anfragen in selbstorganisierenden Peer-to-Peer-Systemen, welches proaktiv gesendete Werbungen und passiv aufgesammeltes Wissen kombiniert, um lokale Indizes von entfernten Peers aufzubauen. Der Ansatz wurde im Bibster-System prototypisch umgesetzt und in einer Fallstudie im Bereich bibliographischer Informationen evaluiert.
  19. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.01
    0.005307325 = product of:
      0.015921975 = sum of:
        0.015921975 = product of:
          0.03184395 = sum of:
            0.03184395 = weight(_text_:system in 4622) [ClassicSimilarity], result of:
              0.03184395 = score(doc=4622,freq=4.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.19684705 = fieldWeight in 4622, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4622)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    RSWK
    Wissensbasiertes System / Lehrbuch
    Subject
    Wissensbasiertes System / Lehrbuch
  20. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.00
    0.004691057 = product of:
      0.01407317 = sum of:
        0.01407317 = product of:
          0.02814634 = sum of:
            0.02814634 = weight(_text_:system in 2731) [ClassicSimilarity], result of:
              0.02814634 = score(doc=2731,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.17398985 = fieldWeight in 2731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2731)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.

Types