Search (146 results, page 2 of 8)

  • × theme_ss:"Wissensrepräsentation"
  1. Kienreich, W.; Strohmaier, M.: Wissensmodellierung - Basis für die Anwendung semantischer Technologien (2006) 0.01
    0.012890827 = product of:
      0.07734496 = sum of:
        0.07734496 = weight(_text_:wissen in 5804) [ClassicSimilarity], result of:
          0.07734496 = score(doc=5804,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.4717232 = fieldWeight in 5804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5804)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Transfer und die Nutzung von Wissen stellen ein zentrales Thema hei der Anwendung semantischer Technologien dar. In diesem Zusammenhang befasst sich das Gebiet der Wissensmodellierung mit der Explizierung von Wissen in formale, sowohl von Menschen als auch von Maschinen interpretierbare, Form. Ziel dieses Beitrags ist es aufzuzeigen. wie Methoden der Wissensmodellierung die Grundlage für die Gestaltung von Anwendungen auf Basis semantischer Technologien bilden. Der Beitrag liefert eine Definition eines Wissensbegriffs, erklärt eine Reihe von Formen der abstrakten Wissensrepräsentation und führt ein Kategorisierungsschema für aktuelle Ansätze zur Modellierung ein. Anschließend wird ein Überblick über agenten- und prozessorientierte Modellierungsansätze gegeben. die sowohl auf die Abbildung der realen Welt als auch auf die Abbildung von Software eingehen.
  2. Reimer, U.: Einführung in die Wissensrepräsentation : netzartige und schema-basierte Repräsentationsformate (1991) 0.01
    0.012890827 = product of:
      0.07734496 = sum of:
        0.07734496 = weight(_text_:wissen in 1566) [ClassicSimilarity], result of:
          0.07734496 = score(doc=1566,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.4717232 = fieldWeight in 1566, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1566)
      0.16666667 = coord(1/6)
    
    Classification
    All E 73 / Wissen
    SBB
    All E 73 / Wissen
  3. Endres-Niggemeyer, B.; Jauris-Heipke, S.; Pinsky, S.M.; Ulbricht, U.: Wissen gewinnen durch Wissen : Ontologiebasierte Informationsextraktion (2006) 0.01
    0.011277124 = product of:
      0.067662746 = sum of:
        0.067662746 = weight(_text_:wissen in 6016) [ClassicSimilarity], result of:
          0.067662746 = score(doc=6016,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.41267183 = fieldWeight in 6016, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6016)
      0.16666667 = coord(1/6)
    
    Abstract
    Die ontologiebasierte Informationsextraktion, über die hier berichtet wird, ist Teil eines Systems zum automatischen Zusammenfassen, das sich am Vorgehen kompetenter Menschen orientiert. Dahinter steht die Annahme, dass Menschen die Ergebnisse eines Systems leichter übernehmen können, wenn sie mit Verfahren erarbeitet worden sind, die sie selbst auch benutzen. Das erste Anwendungsgebiet ist Knochenmarktransplantation (KMT). Im Kern des Systems Summit-BMT (Summarize It in Bone Marrow Transplantation) steht eine Ontologie des Fachgebietes. Sie ist als MySQL-Datenbank realisiert und versorgt menschliche Benutzer und Systemkomponenten mit Wissen. Summit-BMT unterstützt die Frageformulierung mit einem empirisch fundierten Szenario-Interface. Die Retrievalergebnisse werden durch ein Textpassagenretrieval vorselektiert und dann kognitiv fundierten Agenten unterbreitet, die unter Einsatz ihrer Wissensbasis / Ontologie genauer prüfen, ob die Propositionen aus der Benutzerfrage getroffen werden. Die relevanten Textclips aus dem Duelldokument werden in das Szenarioformular eingetragen und mit einem Link zu ihrem Vorkommen im Original präsentiert. In diesem Artikel stehen die Ontologie und ihr Gebrauch zur wissensbasierten Informationsextraktion im Mittelpunkt. Die Ontologiedatenbank hält unterschiedliche Wissenstypen so bereit, dass sie leicht kombiniert werden können: Konzepte, Propositionen und ihre syntaktisch-semantischen Schemata, Unifikatoren, Paraphrasen und Definitionen von Frage-Szenarios. Auf sie stützen sich die Systemagenten, welche von Menschen adaptierte Zusammenfassungsstrategien ausführen. Mängel in anderen Verarbeitungsschritten führen zu Verlusten, aber die eigentliche Qualität der Ergebnisse steht und fällt mit der Qualität der Ontologie. Erste Tests der Extraktionsleistung fallen verblüffend positiv aus.
  4. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.01
    0.011163784 = product of:
      0.0669827 = sum of:
        0.0669827 = weight(_text_:wissen in 4658) [ClassicSimilarity], result of:
          0.0669827 = score(doc=4658,freq=12.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40852425 = fieldWeight in 4658, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.16666667 = coord(1/6)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  5. Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 620) [ClassicSimilarity], result of:
          0.06629568 = score(doc=620,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 620, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=620)
      0.16666667 = coord(1/6)
    
    Abstract
    Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  6. Sigel, A.: Organisation verteilten Wissens mit semantischen Wissensnetzen und der Aggregation semantischer Wissensdienste am Beispiel Digitale Bibliotheken/Kulturelles Erbe (2006) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 5890) [ClassicSimilarity], result of:
          0.06629568 = score(doc=5890,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 5890, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=5890)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag berichtet über Grundideen in der Explorationsphase des Projektes kPeer (Knowledge Peers). Gegenstand ist die dezentrale Organisation, Integration und Aggregation von Wissen mit semantischen Wissenstechnologien in verteilten, heterogenen Umgebungen Dabei sollen Wissensarbeiter, die dezentral und voneinander unabhängig Wissen gemäß lokaler Schemata ausdrücken und organisieren, emergent zusammenwirken, so dass sich eine nützliche gemeinsame Wissensorganisation ergibt. Zudem sollen Aussagen zum selben Aussagegegenstand, die digitalisiert vorliegen, virtuell zusammengeführt werden, um so neue wissensintensive Produkte und Dienstleistungen zu ermöglichen. Als Inspirationsquelle für beabsichtigte Anwendungen im verteilten Wissensmanagement (DKM) und e-business werden Beispiele der Wissensintegration aus dem Bereich Digitale Bibliotheken und Kulturelles Erbe herangezogen.
  7. Kreissig, B.: ¬Der neue Brockhaus : Einsatz von Sprachtechnologie und Wissensnetz (2006) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 6015) [ClassicSimilarity], result of:
          0.06629568 = score(doc=6015,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 6015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=6015)
      0.16666667 = coord(1/6)
    
    Abstract
    Menschliches Wissen und menschliche Sprache sind aufeinander bezogen und voneinander abhängig. Dies gilt auch und gerade bei den Bemühungen, Sprache und Wissen computergestützt so zu verarbeiten, dass für Menschen nutzbare maschinelle Wissensverarbeitung stattfindet. Jenseits von eher akademischen "Laborversuchen" hat wissenschaftliche Forschungsarbeit auf diesem Gebiet die Verfügbarkeit umfangreicher, gepflegter und sauber codierter Wissensbasen sowohl der verwendeten Sprache als auch des abgebildeten Gegenstands zur Voraussetzung. In einem Forschungsprojekt der Firma Brockhaus Duden Neue Medien GmbH gemeinsam mit namhaften wissenschaftlichen Partnern, u.a. dem Fraunhofer-IPSI, dem IICM der TU Graz, dem IAI der Universität Saarbrücken und dem KNOW-Center, Graz, wurde diese Herausforderung erfolgreich angegangen. Für eine neue digitale Brockhaus-Auflage wurden Informationsrepräsentations- und Retrievaltechniken entwickelt, die nicht auf domänenspezifischen Beschränkungen beruhend den gesamten enzyklopädischen Wissenskreis abdecken. Die entwickelten Formalismen erwiesen sich nicht nur zur Abfrage des enzyklopädischen Wissens in natürlicher Sprache als geeignet, sondern konnten auch darauf basierend neuartige Formen der Visualisierung von Wissenszusammenhängen implementiert werden. Die Ergebnisse zeigen zum einen Möglichkeiten erfolgreichen semantischen Retrievals ohne extensiven Einsatzformaler Metacodierungen, zum anderen weisen sie den Weg und die nächsten Schritte bei der Entwicklung noch leistungsfähigerer Mensch-Maschine-Schnittstellen.
  8. Leidig, T.: Ontologien für die Informationsintegration in Geschäftsanwendungen (2006) 0.01
    0.011049281 = product of:
      0.06629568 = sum of:
        0.06629568 = weight(_text_:wissen in 6024) [ClassicSimilarity], result of:
          0.06629568 = score(doc=6024,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.40433416 = fieldWeight in 6024, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=6024)
      0.16666667 = coord(1/6)
    
    Abstract
    Informationsintegration auf Basis semantischer Modelle ist ein viel versprechender Ansatz zur Bewältigung des Informationsüberflusses. Informationen und Wissen stehen oft in großer Menge zur Verfügung, doch es ist sehr schwierig, das Wissen in einer spezifischen Situation zu fin-den oder überhaupt gewahr zu sein, dass adäquate Informationen vorhanden sind. Der Prozess des Suchens erfordert sehr viel Geduld und Erfahrung. Reine textuelle Suchmaschinen wie Google führen leider oft nicht oder nicht effizient genug zum Ziel. Eine zentrale Herausforderung ist daher die Filterung und strukturierte Aufbereitung von Informationen im Kontext der aktuellen Arbeitsumgebung und der jeweiligen Aufgabenstellung. Semantische Metadaten können dabei helfen, diese Abbildung vorhandener Informationsquellen in den Aufgabenkontext zu bewerkstelligen. Doch wie kommt man zu geeigneten, reichhaltigen semantischen Metadaten? Nach heutiger Praxis geschieht das hauptsächlich durch manuelle Verfahren, die allerdings auch viele Probleme aufwerfen. Daher ist der Erfolg semantischer Informationsintegration in hohem Maße davon abhängig, ob es gelingt semantische Metadaten automatisch zu extrahieren und hinreichend aktuell zu halten.
  9. Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage? 0.01
    0.010651486 = product of:
      0.031954456 = sum of:
        0.027623199 = weight(_text_:wissen in 4393) [ClassicSimilarity], result of:
          0.027623199 = score(doc=4393,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.16847256 = fieldWeight in 4393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
        0.0043312567 = product of:
          0.01299377 = sum of:
            0.01299377 = weight(_text_:29 in 4393) [ClassicSimilarity], result of:
              0.01299377 = score(doc=4393,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.097163305 = fieldWeight in 4393, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4393)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Als theoretischen Ausgangspunkt wählen wir in unserem Beitrag eine medienphilosophische Perspektive, die von der Fragestellung ausgeht, inwieweit menschliches Wissen, das von Subjekten explizit oder implizit gewusst wird und Sinn und Bedeutungsbezüge hat, bereits dadurch prinzipiell verändert und möglicherweise um Wesentliches reduziert wird, wenn es in technischen Ontologien - notwendigerweise symbolhaft - repräsentiert wird. Zunächst wird dazu in unserem Beitrag historisch die jahrhundertelange Tradition insbesondere der abendländischen Kulturen seit dem Mittelalter nachgezeichnet, derzufolge zunehmend die epistemische Seite von ,Wissen' in den Vordergrund gestellt wurde, die sich besonders gut symbolisch, d.h. zeichenvermittelt darstellen lässt. Demgegenüber sind wissenschaftshistorisch andere Aspekte menschlichen Wissens wie z.B. die soziale Einbettung symbolvermittelten Wissens und Anteile ,impliziten Wissens' zunehmend in den Hintergrund getreten. Auch Fragen nach Sinn und Bedeutung bzw. reflektionsorientiertem Orientierungswissen sind teilweise davon betroffen.
    Source
    http://www.cba.neu.edu/uploadedFiles/Site_Sections/OLKC_2010/Program_Overview/Parallel_Sessions/180_Wyssusek_Abstract_Ontologies%20in%20Knowledge%20Management%281%29.pdf
  10. Zeh, T.: Ontologien in den Informationswissenschaften (2011) 0.01
    0.010417361 = product of:
      0.062504165 = sum of:
        0.062504165 = weight(_text_:wissen in 4981) [ClassicSimilarity], result of:
          0.062504165 = score(doc=4981,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.38120988 = fieldWeight in 4981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0625 = fieldNorm(doc=4981)
      0.16666667 = coord(1/6)
    
    Content
    "Seit etwa zwei Jahren gibt es im webbasieren sozialen Netzwerk XING (vormals openBC) die Arbeitsgruppe Ontologien in den Informationswissenschaften: Theorien, Methodologien, Technologien und Anwendungen. Die von Anatol Reibold initiierte Arbeitsgruppe mit inzwischen mehr als 800 Mitgliedern will vor allem das Thema Ontologien in den Informationswissenschaften voranbringen, ein Netzwerk von Ontologen autbauen und Wissen über das Thema austauschen. Im Forum werden grundsätzliche wie auch aktuelle Themen diskutiert, über neue Entwicklungen berichtet und Tipps zur Literatur gegeben."
  11. Endres-Niggemeyer, B.: Bessere Information durch Zusammenfassen aus dem WWW (1999) 0.01
    0.010417361 = product of:
      0.062504165 = sum of:
        0.062504165 = weight(_text_:wissen in 4496) [ClassicSimilarity], result of:
          0.062504165 = score(doc=4496,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.38120988 = fieldWeight in 4496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0625 = fieldNorm(doc=4496)
      0.16666667 = coord(1/6)
    
    Abstract
    Am Beispiel der Knochenmarktransplantation, eines medizinischen Spezialgebietes, wird im folgenden dargelegt, wie man BenutzerInnen eine großen Teil des Aufwandes bei der Wissensbeschaffung abnehmen kann, indem man Suchergebnisse aus dem Netz fragebezogen zusammenfaßt. Dadurch wird in zeitkritischen Situationen, wie sie in Diagnose und Therapie alltäglich sind, die Aufnahme neuen Wissens ermöglicht. Auf einen Überblick über den Stand des Textzusammenfassens und der Ontologieentwicklung folgt eine Systemskizze, in der die Informationssuche im WWW durch ein kognitiv fundiertes Zusammenfassungssystem ergänzt wird. Dazu wird eine Fach-Ontologie vorgeschlagen, die das benötigte Wissen organisiert und repräsentiert.
  12. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.010417361 = product of:
      0.062504165 = sum of:
        0.062504165 = weight(_text_:wissen in 2568) [ClassicSimilarity], result of:
          0.062504165 = score(doc=2568,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.38120988 = fieldWeight in 2568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
      0.16666667 = coord(1/6)
    
  13. Hunger, M.; Neubauer, P.: ¬Die vernetzte Welt : Abfragesprachen für Graphendatenbanken (2013) 0.01
    0.009488111 = product of:
      0.056928664 = sum of:
        0.056928664 = weight(_text_:geschichte in 1101) [ClassicSimilarity], result of:
          0.056928664 = score(doc=1101,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.3150691 = fieldWeight in 1101, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.046875 = fieldNorm(doc=1101)
      0.16666667 = coord(1/6)
    
    Abstract
    Graphendatenbanken sind darauf optimiert, stark miteinander vernetzte Informationen effizient zu speichern und greifbar zu machen. Welchen Ansprüchen müssen Abfragesprachen genügen, damit sie für die Arbeit mit diesen Datenbanken geeignet sind? Bei der Aufarbeitung realer Informationen zeigt sich, dass ein hoher, aber unterschätzter Wert in den Beziehungen zwischen Elementen steckt. Seien es Ereignisse aus Geschichte und Politik, Personen in realen und virtuellen sozialen Netzen, Proteine und Gene, Abhängigkeiten in Märkten und Ökonomien oder Rechnernetze, Computer, Software und Anwender - alles ist miteinander verbunden. Der Graph ist ein Datenmodell, das solche Verbindungsgeflechte abbilden kann. Leider lässt sich das Modell mit relationalen und Aggregat-orientierten NoSQL-Datenbanken ab einer gewissen Komplexität jedoch schwer handhaben. Graphendatenbanken sind dagegen darauf optimiert, solche stark miteinander vernetzten Informationen effizient zu speichern und greifbar zu machen. Auch komplexe Fragen lassen sich durch ausgefeilte Abfragen schnell beantworten. Hierbei kommt es auf die geeignete Abfragesprache an.
  14. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.01
    0.009207733 = product of:
      0.055246398 = sum of:
        0.055246398 = weight(_text_:wissen in 5901) [ClassicSimilarity], result of:
          0.055246398 = score(doc=5901,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33694512 = fieldWeight in 5901, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
      0.16666667 = coord(1/6)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  15. Rahmstorf, G.: Strukturierung von inhaltlichen Daten : Topic Maps und Concepto (2004) 0.01
    0.009115191 = product of:
      0.054691143 = sum of:
        0.054691143 = weight(_text_:wissen in 3143) [ClassicSimilarity], result of:
          0.054691143 = score(doc=3143,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33355865 = fieldWeight in 3143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
      0.16666667 = coord(1/6)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  16. Scheir, P.; Pammer, V.; Lindstaedt, S.N.: Information retrieval on the Semantic Web : does it exist? (2007) 0.01
    0.009115191 = product of:
      0.054691143 = sum of:
        0.054691143 = weight(_text_:wissen in 4329) [ClassicSimilarity], result of:
          0.054691143 = score(doc=4329,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33355865 = fieldWeight in 4329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4329)
      0.16666667 = coord(1/6)
    
    Source
    Lernen - Wissen - Adaption : workshop proceedings / LWA 2007, Halle, September 2007. Martin Luther University Halle-Wittenberg, Institute for Informatics, Databases and Information Systems. Hrsg.: Alexander Hinneburg
  17. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.01
    0.009021699 = product of:
      0.054130197 = sum of:
        0.054130197 = weight(_text_:wissen in 3359) [ClassicSimilarity], result of:
          0.054130197 = score(doc=3359,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33013746 = fieldWeight in 3359, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.16666667 = coord(1/6)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  18. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.01
    0.008048648 = product of:
      0.048291884 = sum of:
        0.048291884 = product of:
          0.07243782 = sum of:
            0.036382552 = weight(_text_:29 in 4792) [ClassicSimilarity], result of:
              0.036382552 = score(doc=4792,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.27205724 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
            0.036055267 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.036055267 = score(doc=4792,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    2. 3.2013 12:29:05
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  19. Amirhosseini, M.; Avidan, G.: ¬A dialectic perspective on the evolution of thesauri and ontologies (2021) 0.01
    0.007906759 = product of:
      0.047440555 = sum of:
        0.047440555 = weight(_text_:geschichte in 592) [ClassicSimilarity], result of:
          0.047440555 = score(doc=592,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.2625576 = fieldWeight in 592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=592)
      0.16666667 = coord(1/6)
    
    Theme
    Geschichte der Sacherschließung
  20. Becker, H.-G.; Förster, F.: Vernetztes Wissen : Ereignisse in der bibliografischen Dokumentation (2010) 0.01
    0.007813022 = product of:
      0.046878126 = sum of:
        0.046878126 = weight(_text_:wissen in 3494) [ClassicSimilarity], result of:
          0.046878126 = score(doc=3494,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 3494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=3494)
      0.16666667 = coord(1/6)
    

Authors

Years

Languages

  • e 87
  • d 56
  • f 1
  • sp 1
  • More… Less…

Types

  • a 96
  • el 40
  • m 13
  • x 13
  • s 5
  • r 3
  • n 1
  • p 1
  • More… Less…

Subjects