Search (14 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Haase, P.; Tempich, C.: Wissensaustausch mit semantikbasierten Peer-to-Peer-Systemen (2006) 0.03
    0.027522309 = product of:
      0.055044618 = sum of:
        0.055044618 = product of:
          0.110089235 = sum of:
            0.110089235 = weight(_text_:wissen in 6017) [ClassicSimilarity], result of:
              0.110089235 = score(doc=6017,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.49520618 = fieldWeight in 6017, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6017)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Austausch von Wissen kann in Peer-to-Peer-Systemen effizient gestaltet werden und hat damit ein großes Anwendungspotenzial innerhalb von Unternehmen und für virtuelle Organisationen im Allgemeinen. Dieser Beitrag konzentriert sich nicht auf Systeme die den Austausch unstrukturierten Daten (wie Multimediadaten) unterstützen, sondern auf Ansätze die den Austausch von semantischen Wissensstrukturen in Peer-to-Peer-Systemen unterstützen. Das Wissen auf den einzelnen Peers wird in solchen Systemen mit Hilfe einer Ontologie beschrieben. Insbesondere können in diesen Systemen die semantischen Wissensstrukturen dazu benutzt werden, Anfragen effektiver innerhalb des Netzwerkes zu verteilen und gleich gesinnte Nutzer zusammenzuführen. In diesem Zusammenhang präsentieren wir einen Algorithmus für das effektive Routing von Anfragen in selbstorganisierenden Peer-to-Peer-Systemen, welches proaktiv gesendete Werbungen und passiv aufgesammeltes Wissen kombiniert, um lokale Indizes von entfernten Peers aufzubauen. Der Ansatz wurde im Bibster-System prototypisch umgesetzt und in einer Fallstudie im Bereich bibliographischer Informationen evaluiert.
  2. Kienreich, W.; Strohmaier, M.: Wissensmodellierung - Basis für die Anwendung semantischer Technologien (2006) 0.03
    0.026217185 = product of:
      0.05243437 = sum of:
        0.05243437 = product of:
          0.10486874 = sum of:
            0.10486874 = weight(_text_:wissen in 5804) [ClassicSimilarity], result of:
              0.10486874 = score(doc=5804,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.4717232 = fieldWeight in 5804, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5804)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Transfer und die Nutzung von Wissen stellen ein zentrales Thema hei der Anwendung semantischer Technologien dar. In diesem Zusammenhang befasst sich das Gebiet der Wissensmodellierung mit der Explizierung von Wissen in formale, sowohl von Menschen als auch von Maschinen interpretierbare, Form. Ziel dieses Beitrags ist es aufzuzeigen. wie Methoden der Wissensmodellierung die Grundlage für die Gestaltung von Anwendungen auf Basis semantischer Technologien bilden. Der Beitrag liefert eine Definition eines Wissensbegriffs, erklärt eine Reihe von Formen der abstrakten Wissensrepräsentation und führt ein Kategorisierungsschema für aktuelle Ansätze zur Modellierung ein. Anschließend wird ein Überblick über agenten- und prozessorientierte Modellierungsansätze gegeben. die sowohl auf die Abbildung der realen Welt als auch auf die Abbildung von Software eingehen.
  3. Endres-Niggemeyer, B.; Jauris-Heipke, S.; Pinsky, S.M.; Ulbricht, U.: Wissen gewinnen durch Wissen : Ontologiebasierte Informationsextraktion (2006) 0.02
    0.022935258 = product of:
      0.045870516 = sum of:
        0.045870516 = product of:
          0.09174103 = sum of:
            0.09174103 = weight(_text_:wissen in 6016) [ClassicSimilarity], result of:
              0.09174103 = score(doc=6016,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.41267183 = fieldWeight in 6016, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6016)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die ontologiebasierte Informationsextraktion, über die hier berichtet wird, ist Teil eines Systems zum automatischen Zusammenfassen, das sich am Vorgehen kompetenter Menschen orientiert. Dahinter steht die Annahme, dass Menschen die Ergebnisse eines Systems leichter übernehmen können, wenn sie mit Verfahren erarbeitet worden sind, die sie selbst auch benutzen. Das erste Anwendungsgebiet ist Knochenmarktransplantation (KMT). Im Kern des Systems Summit-BMT (Summarize It in Bone Marrow Transplantation) steht eine Ontologie des Fachgebietes. Sie ist als MySQL-Datenbank realisiert und versorgt menschliche Benutzer und Systemkomponenten mit Wissen. Summit-BMT unterstützt die Frageformulierung mit einem empirisch fundierten Szenario-Interface. Die Retrievalergebnisse werden durch ein Textpassagenretrieval vorselektiert und dann kognitiv fundierten Agenten unterbreitet, die unter Einsatz ihrer Wissensbasis / Ontologie genauer prüfen, ob die Propositionen aus der Benutzerfrage getroffen werden. Die relevanten Textclips aus dem Duelldokument werden in das Szenarioformular eingetragen und mit einem Link zu ihrem Vorkommen im Original präsentiert. In diesem Artikel stehen die Ontologie und ihr Gebrauch zur wissensbasierten Informationsextraktion im Mittelpunkt. Die Ontologiedatenbank hält unterschiedliche Wissenstypen so bereit, dass sie leicht kombiniert werden können: Konzepte, Propositionen und ihre syntaktisch-semantischen Schemata, Unifikatoren, Paraphrasen und Definitionen von Frage-Szenarios. Auf sie stützen sich die Systemagenten, welche von Menschen adaptierte Zusammenfassungsstrategien ausführen. Mängel in anderen Verarbeitungsschritten führen zu Verlusten, aber die eigentliche Qualität der Ergebnisse steht und fällt mit der Qualität der Ontologie. Erste Tests der Extraktionsleistung fallen verblüffend positiv aus.
  4. Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 620) [ClassicSimilarity], result of:
              0.089887485 = score(doc=620,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 620, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=620)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  5. Sigel, A.: Organisation verteilten Wissens mit semantischen Wissensnetzen und der Aggregation semantischer Wissensdienste am Beispiel Digitale Bibliotheken/Kulturelles Erbe (2006) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 5890) [ClassicSimilarity], result of:
              0.089887485 = score(doc=5890,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 5890, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5890)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag berichtet über Grundideen in der Explorationsphase des Projektes kPeer (Knowledge Peers). Gegenstand ist die dezentrale Organisation, Integration und Aggregation von Wissen mit semantischen Wissenstechnologien in verteilten, heterogenen Umgebungen Dabei sollen Wissensarbeiter, die dezentral und voneinander unabhängig Wissen gemäß lokaler Schemata ausdrücken und organisieren, emergent zusammenwirken, so dass sich eine nützliche gemeinsame Wissensorganisation ergibt. Zudem sollen Aussagen zum selben Aussagegegenstand, die digitalisiert vorliegen, virtuell zusammengeführt werden, um so neue wissensintensive Produkte und Dienstleistungen zu ermöglichen. Als Inspirationsquelle für beabsichtigte Anwendungen im verteilten Wissensmanagement (DKM) und e-business werden Beispiele der Wissensintegration aus dem Bereich Digitale Bibliotheken und Kulturelles Erbe herangezogen.
  6. Kreissig, B.: ¬Der neue Brockhaus : Einsatz von Sprachtechnologie und Wissensnetz (2006) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 6015) [ClassicSimilarity], result of:
              0.089887485 = score(doc=6015,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 6015, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6015)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Menschliches Wissen und menschliche Sprache sind aufeinander bezogen und voneinander abhängig. Dies gilt auch und gerade bei den Bemühungen, Sprache und Wissen computergestützt so zu verarbeiten, dass für Menschen nutzbare maschinelle Wissensverarbeitung stattfindet. Jenseits von eher akademischen "Laborversuchen" hat wissenschaftliche Forschungsarbeit auf diesem Gebiet die Verfügbarkeit umfangreicher, gepflegter und sauber codierter Wissensbasen sowohl der verwendeten Sprache als auch des abgebildeten Gegenstands zur Voraussetzung. In einem Forschungsprojekt der Firma Brockhaus Duden Neue Medien GmbH gemeinsam mit namhaften wissenschaftlichen Partnern, u.a. dem Fraunhofer-IPSI, dem IICM der TU Graz, dem IAI der Universität Saarbrücken und dem KNOW-Center, Graz, wurde diese Herausforderung erfolgreich angegangen. Für eine neue digitale Brockhaus-Auflage wurden Informationsrepräsentations- und Retrievaltechniken entwickelt, die nicht auf domänenspezifischen Beschränkungen beruhend den gesamten enzyklopädischen Wissenskreis abdecken. Die entwickelten Formalismen erwiesen sich nicht nur zur Abfrage des enzyklopädischen Wissens in natürlicher Sprache als geeignet, sondern konnten auch darauf basierend neuartige Formen der Visualisierung von Wissenszusammenhängen implementiert werden. Die Ergebnisse zeigen zum einen Möglichkeiten erfolgreichen semantischen Retrievals ohne extensiven Einsatzformaler Metacodierungen, zum anderen weisen sie den Weg und die nächsten Schritte bei der Entwicklung noch leistungsfähigerer Mensch-Maschine-Schnittstellen.
  7. Leidig, T.: Ontologien für die Informationsintegration in Geschäftsanwendungen (2006) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 6024) [ClassicSimilarity], result of:
              0.089887485 = score(doc=6024,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 6024, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6024)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Informationsintegration auf Basis semantischer Modelle ist ein viel versprechender Ansatz zur Bewältigung des Informationsüberflusses. Informationen und Wissen stehen oft in großer Menge zur Verfügung, doch es ist sehr schwierig, das Wissen in einer spezifischen Situation zu fin-den oder überhaupt gewahr zu sein, dass adäquate Informationen vorhanden sind. Der Prozess des Suchens erfordert sehr viel Geduld und Erfahrung. Reine textuelle Suchmaschinen wie Google führen leider oft nicht oder nicht effizient genug zum Ziel. Eine zentrale Herausforderung ist daher die Filterung und strukturierte Aufbereitung von Informationen im Kontext der aktuellen Arbeitsumgebung und der jeweiligen Aufgabenstellung. Semantische Metadaten können dabei helfen, diese Abbildung vorhandener Informationsquellen in den Aufgabenkontext zu bewerkstelligen. Doch wie kommt man zu geeigneten, reichhaltigen semantischen Metadaten? Nach heutiger Praxis geschieht das hauptsächlich durch manuelle Verfahren, die allerdings auch viele Probleme aufwerfen. Daher ist der Erfolg semantischer Informationsintegration in hohem Maße davon abhängig, ob es gelingt semantische Metadaten automatisch zu extrahieren und hinreichend aktuell zu halten.
  8. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.02
    0.01872656 = product of:
      0.03745312 = sum of:
        0.03745312 = product of:
          0.07490624 = sum of:
            0.07490624 = weight(_text_:wissen in 5901) [ClassicSimilarity], result of:
              0.07490624 = score(doc=5901,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33694512 = fieldWeight in 5901, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  9. Rahmstorf, G.: Strukturierung von inhaltlichen Daten : Topic Maps und Concepto (2004) 0.02
    0.018538348 = product of:
      0.037076697 = sum of:
        0.037076697 = product of:
          0.07415339 = sum of:
            0.07415339 = weight(_text_:wissen in 3143) [ClassicSimilarity], result of:
              0.07415339 = score(doc=3143,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33355865 = fieldWeight in 3143, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3143)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  10. Gams, E.; Mitterdorfer, D.: Semantische Content Management Systeme (2009) 0.02
    0.015890013 = product of:
      0.031780027 = sum of:
        0.031780027 = product of:
          0.06356005 = sum of:
            0.06356005 = weight(_text_:wissen in 4865) [ClassicSimilarity], result of:
              0.06356005 = score(doc=4865,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.28590742 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Content Management Systeme (CMS) sind in vielen Organisationen bereits seit längerer Zeit fester Bestandteil zur Verwaltung und kollaborativen Bearbeitung von Text- und Multimedia-Inhalten. Im Zuge der rasch ansteigenden Fülle an Informationen und somit auch Wissen wird die Überschaubarkeit der Datenbestände jedoch massiv eingeschränkt. Diese und zusätzliche Anforderungen, wie automatisch Datenquellen aus dem World Wide Web (WWW) zu extrahieren, lassen traditionelle CMS immer mehr an ihre Grenzen stoßen. Dieser Beitrag diskutiert die neuen Herausforderungen an traditionelle CMS und bietet Lösungsvorschläge, wie CMS kombiniert mit semantischen Technologien diesen Herausforderungen begegnen können. Die Autoren stellen eine generische Systemarchitektur für Content Management Systeme vor, die einerseits Inhalte für das Semantic Web generieren, andererseits Content aus dem Web 2.0 syndizieren können und bei der Aufbereitung des Content den User mittels semantischer Technologien wie Reasoning oder Informationsextraktion unterstützen. Dabei wird auf Erfahrungen bei der prototypischen Implementierung von semantischer Technologie in ein bestehendes CMS System zurückgegriffen.
  11. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.01
    0.013241677 = product of:
      0.026483353 = sum of:
        0.026483353 = product of:
          0.052966706 = sum of:
            0.052966706 = weight(_text_:wissen in 3236) [ClassicSimilarity], result of:
              0.052966706 = score(doc=3236,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.23825617 = fieldWeight in 3236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3236)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  12. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.01
    0.0131085925 = product of:
      0.026217185 = sum of:
        0.026217185 = product of:
          0.05243437 = sum of:
            0.05243437 = weight(_text_:wissen in 6027) [ClassicSimilarity], result of:
              0.05243437 = score(doc=6027,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.2358616 = fieldWeight in 6027, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6027)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
  13. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.01
    0.01222145 = product of:
      0.0244429 = sum of:
        0.0244429 = product of:
          0.0488858 = sum of:
            0.0488858 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.0488858 = score(doc=1852,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11. 2.2011 18:22:58
  14. Fischer, D.H.: ¬Ein Lehrbeispiel für eine Ontologie : OpenCyc (2004) 0.01
    0.009269174 = product of:
      0.018538348 = sum of:
        0.018538348 = product of:
          0.037076697 = sum of:
            0.037076697 = weight(_text_:wissen in 4568) [ClassicSimilarity], result of:
              0.037076697 = score(doc=4568,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.16677932 = fieldWeight in 4568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4568)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Das Projekt Cyc ist im Jahre 1984 angetreten mit der Zielsetzung, im großen Maßstab Alltags- und enzyklopädisches Wissen in einem einheitlichen System zu formalisieren im Gegensatz zu den bisherigen Versuchen der jeweiligen Repräsentation sektoralen Expertenwissens. Nachdem man sich dem Mythos Cyc zunächst nur über Publikationen nähern konntet, wurde dann 1997 als Textdatei Cycs "Upper Ontology" durch die Firma Cycorp Inc. zugänglich gemacht. Sie enthielt aber einiges nicht, was beschrieben worden war: z.B. Regeln und die Bindung von Aussagen an "Mikrotheorien". Entsprechend dieser Beschränkung war es mir möglich, den Inhalt dieser Datei strukturell verlustfrei in mein objektorientiertes, generisches Thesaurussystem "TerminologyFramework" einzubringen. Im April 200z wurden dann unter dem Namen OpenCyc nicht nur der Inhalt eines Auszugs aus Cycorps Ontologie, sondern auch zugehörige Werkzeuge zum lesenden Stöbern, Ändern und Schließen in einem ersten Release 0.6 zugänglich. Dazu findet man reichlich tutorielles Material, jedoch ist es nicht exakt abgestimmt auf die aktuell vorliegende Wissensbasis, sowie allerhand Dokumentation; vor allem aber findet man zum Herunterladen das Softwarepaket samt Wissensbasis für Windows NT/2000/XP- oder für Linux-Systeme. In welchem Verhältnis das nun kostenlos mit einer "GNU Lesser General Public License" verfügbare OpenCyc zu dem kommerziellen "Full Cyc" der Firma Cycorp steht, darüber weiß ich nichts aus erster Hand; die von mir für OpenCyc ermittelten Zahlen (s.u.) stehen zu neueren Angaben für Cyc in einem Größenordnungsverhältnis von ca. 1 zu 10. Informationen über realisierte Anwendungen kann man der Firmenselbstdarstellung$ und den von dort erreichbaren "white papers" entnehmen. Auf der Firmeneingangsseite findet man in Gestalt einer Pyramide eine Inhaltsübersicht der Ontologie von Cyc (siehe Abbildung 1): Beim Darüberfahren mit der Maus wird das dort wie auch hier kaum leserliche Kleingedruckte im Feld links oben lesbar und durch Klicken wird eine Inhaltsbeschreibung des jeweiligen Begriffsbereichs im Feld unten gegeben. OpenCyc stellt wohl einen exemplarischen Auszug aus dem oberen Teil der Pyramide oberhalb "Domain-Specific Knowledge" dar.