Search (61 results, page 1 of 4)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Wissensrepräsentation"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.14
    0.14088845 = product of:
      0.2817769 = sum of:
        0.040253844 = product of:
          0.12076153 = sum of:
            0.12076153 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.12076153 = score(doc=701,freq=2.0), product of:
                0.3223069 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038016807 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.12076153 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.12076153 = score(doc=701,freq=2.0), product of:
            0.3223069 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038016807 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.12076153 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.12076153 = score(doc=701,freq=2.0), product of:
            0.3223069 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038016807 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.04
    0.03593435 = product of:
      0.107803054 = sum of:
        0.054130197 = weight(_text_:wissen in 4498) [ClassicSimilarity], result of:
          0.054130197 = score(doc=4498,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33013746 = fieldWeight in 4498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.053672858 = weight(_text_:geschichte in 4498) [ClassicSimilarity], result of:
          0.053672858 = score(doc=4498,freq=4.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.29705 = fieldWeight in 4498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
      0.33333334 = coord(2/6)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
    Imprint
    Halle-Wittenberg : Fachbereich Geschichte, Philosophie und Sozialwissenschaften, Fachbereich Geschichte, Philosophie und Sozialwissenschaften
  3. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.02
    0.019091047 = product of:
      0.057273142 = sum of:
        0.046878126 = weight(_text_:wissen in 4332) [ClassicSimilarity], result of:
          0.046878126 = score(doc=4332,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.010395016 = product of:
          0.031185046 = sum of:
            0.031185046 = weight(_text_:29 in 4332) [ClassicSimilarity], result of:
              0.031185046 = score(doc=4332,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.23319192 = fieldWeight in 4332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    Date
    12. 2.2011 17:29:27
  4. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.02
    0.017301133 = product of:
      0.051903397 = sum of:
        0.023439063 = weight(_text_:wissen in 585) [ClassicSimilarity], result of:
          0.023439063 = score(doc=585,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.14295371 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.028464332 = weight(_text_:geschichte in 585) [ClassicSimilarity], result of:
          0.028464332 = score(doc=585,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.15753455 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
  5. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.02
    0.01588323 = product of:
      0.04764969 = sum of:
        0.0390651 = weight(_text_:wissen in 1670) [ClassicSimilarity], result of:
          0.0390651 = score(doc=1670,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.23825617 = fieldWeight in 1670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.008584588 = product of:
          0.025753763 = sum of:
            0.025753763 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.025753763 = score(doc=1670,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
  6. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.02
    0.015626043 = product of:
      0.09375625 = sum of:
        0.09375625 = weight(_text_:wissen in 4322) [ClassicSimilarity], result of:
          0.09375625 = score(doc=4322,freq=8.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.57181484 = fieldWeight in 4322, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  7. Haase, P.; Tempich, C.: Wissensaustausch mit semantikbasierten Peer-to-Peer-Systemen (2006) 0.01
    0.013532549 = product of:
      0.081195295 = sum of:
        0.081195295 = weight(_text_:wissen in 6017) [ClassicSimilarity], result of:
          0.081195295 = score(doc=6017,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.49520618 = fieldWeight in 6017, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=6017)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Austausch von Wissen kann in Peer-to-Peer-Systemen effizient gestaltet werden und hat damit ein großes Anwendungspotenzial innerhalb von Unternehmen und für virtuelle Organisationen im Allgemeinen. Dieser Beitrag konzentriert sich nicht auf Systeme die den Austausch unstrukturierten Daten (wie Multimediadaten) unterstützen, sondern auf Ansätze die den Austausch von semantischen Wissensstrukturen in Peer-to-Peer-Systemen unterstützen. Das Wissen auf den einzelnen Peers wird in solchen Systemen mit Hilfe einer Ontologie beschrieben. Insbesondere können in diesen Systemen die semantischen Wissensstrukturen dazu benutzt werden, Anfragen effektiver innerhalb des Netzwerkes zu verteilen und gleich gesinnte Nutzer zusammenzuführen. In diesem Zusammenhang präsentieren wir einen Algorithmus für das effektive Routing von Anfragen in selbstorganisierenden Peer-to-Peer-Systemen, welches proaktiv gesendete Werbungen und passiv aufgesammeltes Wissen kombiniert, um lokale Indizes von entfernten Peers aufzubauen. Der Ansatz wurde im Bibster-System prototypisch umgesetzt und in einer Fallstudie im Bereich bibliographischer Informationen evaluiert.
  8. Kienreich, W.; Strohmaier, M.: Wissensmodellierung - Basis für die Anwendung semantischer Technologien (2006) 0.01
    0.012890827 = product of:
      0.07734496 = sum of:
        0.07734496 = weight(_text_:wissen in 5804) [ClassicSimilarity], result of:
          0.07734496 = score(doc=5804,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.4717232 = fieldWeight in 5804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5804)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Transfer und die Nutzung von Wissen stellen ein zentrales Thema hei der Anwendung semantischer Technologien dar. In diesem Zusammenhang befasst sich das Gebiet der Wissensmodellierung mit der Explizierung von Wissen in formale, sowohl von Menschen als auch von Maschinen interpretierbare, Form. Ziel dieses Beitrags ist es aufzuzeigen. wie Methoden der Wissensmodellierung die Grundlage für die Gestaltung von Anwendungen auf Basis semantischer Technologien bilden. Der Beitrag liefert eine Definition eines Wissensbegriffs, erklärt eine Reihe von Formen der abstrakten Wissensrepräsentation und führt ein Kategorisierungsschema für aktuelle Ansätze zur Modellierung ein. Anschließend wird ein Überblick über agenten- und prozessorientierte Modellierungsansätze gegeben. die sowohl auf die Abbildung der realen Welt als auch auf die Abbildung von Software eingehen.
  9. Endres-Niggemeyer, B.; Jauris-Heipke, S.; Pinsky, S.M.; Ulbricht, U.: Wissen gewinnen durch Wissen : Ontologiebasierte Informationsextraktion (2006) 0.01
    0.011277124 = product of:
      0.067662746 = sum of:
        0.067662746 = weight(_text_:wissen in 6016) [ClassicSimilarity], result of:
          0.067662746 = score(doc=6016,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.41267183 = fieldWeight in 6016, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6016)
      0.16666667 = coord(1/6)
    
    Abstract
    Die ontologiebasierte Informationsextraktion, über die hier berichtet wird, ist Teil eines Systems zum automatischen Zusammenfassen, das sich am Vorgehen kompetenter Menschen orientiert. Dahinter steht die Annahme, dass Menschen die Ergebnisse eines Systems leichter übernehmen können, wenn sie mit Verfahren erarbeitet worden sind, die sie selbst auch benutzen. Das erste Anwendungsgebiet ist Knochenmarktransplantation (KMT). Im Kern des Systems Summit-BMT (Summarize It in Bone Marrow Transplantation) steht eine Ontologie des Fachgebietes. Sie ist als MySQL-Datenbank realisiert und versorgt menschliche Benutzer und Systemkomponenten mit Wissen. Summit-BMT unterstützt die Frageformulierung mit einem empirisch fundierten Szenario-Interface. Die Retrievalergebnisse werden durch ein Textpassagenretrieval vorselektiert und dann kognitiv fundierten Agenten unterbreitet, die unter Einsatz ihrer Wissensbasis / Ontologie genauer prüfen, ob die Propositionen aus der Benutzerfrage getroffen werden. Die relevanten Textclips aus dem Duelldokument werden in das Szenarioformular eingetragen und mit einem Link zu ihrem Vorkommen im Original präsentiert. In diesem Artikel stehen die Ontologie und ihr Gebrauch zur wissensbasierten Informationsextraktion im Mittelpunkt. Die Ontologiedatenbank hält unterschiedliche Wissenstypen so bereit, dass sie leicht kombiniert werden können: Konzepte, Propositionen und ihre syntaktisch-semantischen Schemata, Unifikatoren, Paraphrasen und Definitionen von Frage-Szenarios. Auf sie stützen sich die Systemagenten, welche von Menschen adaptierte Zusammenfassungsstrategien ausführen. Mängel in anderen Verarbeitungsschritten führen zu Verlusten, aber die eigentliche Qualität der Ergebnisse steht und fällt mit der Qualität der Ontologie. Erste Tests der Extraktionsleistung fallen verblüffend positiv aus.
  10. Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 620) [ClassicSimilarity], result of:
          0.06629568 = score(doc=620,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 620, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=620)
      0.16666667 = coord(1/6)
    
    Abstract
    Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  11. Sigel, A.: Organisation verteilten Wissens mit semantischen Wissensnetzen und der Aggregation semantischer Wissensdienste am Beispiel Digitale Bibliotheken/Kulturelles Erbe (2006) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 5890) [ClassicSimilarity], result of:
          0.06629568 = score(doc=5890,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 5890, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=5890)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag berichtet über Grundideen in der Explorationsphase des Projektes kPeer (Knowledge Peers). Gegenstand ist die dezentrale Organisation, Integration und Aggregation von Wissen mit semantischen Wissenstechnologien in verteilten, heterogenen Umgebungen Dabei sollen Wissensarbeiter, die dezentral und voneinander unabhängig Wissen gemäß lokaler Schemata ausdrücken und organisieren, emergent zusammenwirken, so dass sich eine nützliche gemeinsame Wissensorganisation ergibt. Zudem sollen Aussagen zum selben Aussagegegenstand, die digitalisiert vorliegen, virtuell zusammengeführt werden, um so neue wissensintensive Produkte und Dienstleistungen zu ermöglichen. Als Inspirationsquelle für beabsichtigte Anwendungen im verteilten Wissensmanagement (DKM) und e-business werden Beispiele der Wissensintegration aus dem Bereich Digitale Bibliotheken und Kulturelles Erbe herangezogen.
  12. Kreissig, B.: ¬Der neue Brockhaus : Einsatz von Sprachtechnologie und Wissensnetz (2006) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 6015) [ClassicSimilarity], result of:
          0.06629568 = score(doc=6015,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 6015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=6015)
      0.16666667 = coord(1/6)
    
    Abstract
    Menschliches Wissen und menschliche Sprache sind aufeinander bezogen und voneinander abhängig. Dies gilt auch und gerade bei den Bemühungen, Sprache und Wissen computergestützt so zu verarbeiten, dass für Menschen nutzbare maschinelle Wissensverarbeitung stattfindet. Jenseits von eher akademischen "Laborversuchen" hat wissenschaftliche Forschungsarbeit auf diesem Gebiet die Verfügbarkeit umfangreicher, gepflegter und sauber codierter Wissensbasen sowohl der verwendeten Sprache als auch des abgebildeten Gegenstands zur Voraussetzung. In einem Forschungsprojekt der Firma Brockhaus Duden Neue Medien GmbH gemeinsam mit namhaften wissenschaftlichen Partnern, u.a. dem Fraunhofer-IPSI, dem IICM der TU Graz, dem IAI der Universität Saarbrücken und dem KNOW-Center, Graz, wurde diese Herausforderung erfolgreich angegangen. Für eine neue digitale Brockhaus-Auflage wurden Informationsrepräsentations- und Retrievaltechniken entwickelt, die nicht auf domänenspezifischen Beschränkungen beruhend den gesamten enzyklopädischen Wissenskreis abdecken. Die entwickelten Formalismen erwiesen sich nicht nur zur Abfrage des enzyklopädischen Wissens in natürlicher Sprache als geeignet, sondern konnten auch darauf basierend neuartige Formen der Visualisierung von Wissenszusammenhängen implementiert werden. Die Ergebnisse zeigen zum einen Möglichkeiten erfolgreichen semantischen Retrievals ohne extensiven Einsatzformaler Metacodierungen, zum anderen weisen sie den Weg und die nächsten Schritte bei der Entwicklung noch leistungsfähigerer Mensch-Maschine-Schnittstellen.
  13. Leidig, T.: Ontologien für die Informationsintegration in Geschäftsanwendungen (2006) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 6024) [ClassicSimilarity], result of:
          0.06629568 = score(doc=6024,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 6024, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=6024)
      0.16666667 = coord(1/6)
    
    Abstract
    Informationsintegration auf Basis semantischer Modelle ist ein viel versprechender Ansatz zur Bewältigung des Informationsüberflusses. Informationen und Wissen stehen oft in großer Menge zur Verfügung, doch es ist sehr schwierig, das Wissen in einer spezifischen Situation zu fin-den oder überhaupt gewahr zu sein, dass adäquate Informationen vorhanden sind. Der Prozess des Suchens erfordert sehr viel Geduld und Erfahrung. Reine textuelle Suchmaschinen wie Google führen leider oft nicht oder nicht effizient genug zum Ziel. Eine zentrale Herausforderung ist daher die Filterung und strukturierte Aufbereitung von Informationen im Kontext der aktuellen Arbeitsumgebung und der jeweiligen Aufgabenstellung. Semantische Metadaten können dabei helfen, diese Abbildung vorhandener Informationsquellen in den Aufgabenkontext zu bewerkstelligen. Doch wie kommt man zu geeigneten, reichhaltigen semantischen Metadaten? Nach heutiger Praxis geschieht das hauptsächlich durch manuelle Verfahren, die allerdings auch viele Probleme aufwerfen. Daher ist der Erfolg semantischer Informationsintegration in hohem Maße davon abhängig, ob es gelingt semantische Metadaten automatisch zu extrahieren und hinreichend aktuell zu halten.
  14. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.01
    0.009207733 = product of:
      0.055246398 = sum of:
        0.055246398 = weight(_text_:wissen in 5901) [ClassicSimilarity], result of:
          0.055246398 = score(doc=5901,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33694512 = fieldWeight in 5901, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
      0.16666667 = coord(1/6)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  15. Rahmstorf, G.: Strukturierung von inhaltlichen Daten : Topic Maps und Concepto (2004) 0.01
    0.009115191 = product of:
      0.054691143 = sum of:
        0.054691143 = weight(_text_:wissen in 3143) [ClassicSimilarity], result of:
          0.054691143 = score(doc=3143,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33355865 = fieldWeight in 3143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
      0.16666667 = coord(1/6)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  16. Scheir, P.; Pammer, V.; Lindstaedt, S.N.: Information retrieval on the Semantic Web : does it exist? (2007) 0.01
    0.009115191 = product of:
      0.054691143 = sum of:
        0.054691143 = weight(_text_:wissen in 4329) [ClassicSimilarity], result of:
          0.054691143 = score(doc=4329,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33355865 = fieldWeight in 4329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4329)
      0.16666667 = coord(1/6)
    
    Source
    Lernen - Wissen - Adaption : workshop proceedings / LWA 2007, Halle, September 2007. Martin Luther University Halle-Wittenberg, Institute for Informatics, Databases and Information Systems. Hrsg.: Alexander Hinneburg
  17. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.01
    0.009021699 = product of:
      0.054130197 = sum of:
        0.054130197 = weight(_text_:wissen in 3359) [ClassicSimilarity], result of:
          0.054130197 = score(doc=3359,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33013746 = fieldWeight in 3359, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.16666667 = coord(1/6)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  18. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.01
    0.007813022 = product of:
      0.046878126 = sum of:
        0.046878126 = weight(_text_:wissen in 4333) [ClassicSimilarity], result of:
          0.046878126 = score(doc=4333,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  19. Gams, E.; Mitterdorfer, D.: Semantische Content Management Systeme (2009) 0.01
    0.007813022 = product of:
      0.046878126 = sum of:
        0.046878126 = weight(_text_:wissen in 4865) [ClassicSimilarity], result of:
          0.046878126 = score(doc=4865,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 4865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=4865)
      0.16666667 = coord(1/6)
    
    Abstract
    Content Management Systeme (CMS) sind in vielen Organisationen bereits seit längerer Zeit fester Bestandteil zur Verwaltung und kollaborativen Bearbeitung von Text- und Multimedia-Inhalten. Im Zuge der rasch ansteigenden Fülle an Informationen und somit auch Wissen wird die Überschaubarkeit der Datenbestände jedoch massiv eingeschränkt. Diese und zusätzliche Anforderungen, wie automatisch Datenquellen aus dem World Wide Web (WWW) zu extrahieren, lassen traditionelle CMS immer mehr an ihre Grenzen stoßen. Dieser Beitrag diskutiert die neuen Herausforderungen an traditionelle CMS und bietet Lösungsvorschläge, wie CMS kombiniert mit semantischen Technologien diesen Herausforderungen begegnen können. Die Autoren stellen eine generische Systemarchitektur für Content Management Systeme vor, die einerseits Inhalte für das Semantic Web generieren, andererseits Content aus dem Web 2.0 syndizieren können und bei der Aufbereitung des Content den User mittels semantischer Technologien wie Reasoning oder Informationsextraktion unterstützen. Dabei wird auf Erfahrungen bei der prototypischen Implementierung von semantischer Technologie in ein bestehendes CMS System zurückgegriffen.
  20. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.01
    0.00651085 = product of:
      0.0390651 = sum of:
        0.0390651 = weight(_text_:wissen in 3236) [ClassicSimilarity], result of:
          0.0390651 = score(doc=3236,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.23825617 = fieldWeight in 3236, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
      0.16666667 = coord(1/6)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf

Authors

Languages

  • e 32
  • d 28

Types

  • a 32
  • el 25
  • x 7
  • m 5
  • n 1
  • r 1
  • s 1
  • More… Less…