Search (96 results, page 2 of 5)

  • × theme_ss:"Wissensrepräsentation"
  1. Sigel, A.: Organisation verteilten Wissens mit semantischen Wissensnetzen und der Aggregation semantischer Wissensdienste am Beispiel Digitale Bibliotheken/Kulturelles Erbe (2006) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 5890) [ClassicSimilarity], result of:
              0.089887485 = score(doc=5890,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 5890, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5890)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag berichtet über Grundideen in der Explorationsphase des Projektes kPeer (Knowledge Peers). Gegenstand ist die dezentrale Organisation, Integration und Aggregation von Wissen mit semantischen Wissenstechnologien in verteilten, heterogenen Umgebungen Dabei sollen Wissensarbeiter, die dezentral und voneinander unabhängig Wissen gemäß lokaler Schemata ausdrücken und organisieren, emergent zusammenwirken, so dass sich eine nützliche gemeinsame Wissensorganisation ergibt. Zudem sollen Aussagen zum selben Aussagegegenstand, die digitalisiert vorliegen, virtuell zusammengeführt werden, um so neue wissensintensive Produkte und Dienstleistungen zu ermöglichen. Als Inspirationsquelle für beabsichtigte Anwendungen im verteilten Wissensmanagement (DKM) und e-business werden Beispiele der Wissensintegration aus dem Bereich Digitale Bibliotheken und Kulturelles Erbe herangezogen.
  2. Kreissig, B.: ¬Der neue Brockhaus : Einsatz von Sprachtechnologie und Wissensnetz (2006) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 6015) [ClassicSimilarity], result of:
              0.089887485 = score(doc=6015,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 6015, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6015)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Menschliches Wissen und menschliche Sprache sind aufeinander bezogen und voneinander abhängig. Dies gilt auch und gerade bei den Bemühungen, Sprache und Wissen computergestützt so zu verarbeiten, dass für Menschen nutzbare maschinelle Wissensverarbeitung stattfindet. Jenseits von eher akademischen "Laborversuchen" hat wissenschaftliche Forschungsarbeit auf diesem Gebiet die Verfügbarkeit umfangreicher, gepflegter und sauber codierter Wissensbasen sowohl der verwendeten Sprache als auch des abgebildeten Gegenstands zur Voraussetzung. In einem Forschungsprojekt der Firma Brockhaus Duden Neue Medien GmbH gemeinsam mit namhaften wissenschaftlichen Partnern, u.a. dem Fraunhofer-IPSI, dem IICM der TU Graz, dem IAI der Universität Saarbrücken und dem KNOW-Center, Graz, wurde diese Herausforderung erfolgreich angegangen. Für eine neue digitale Brockhaus-Auflage wurden Informationsrepräsentations- und Retrievaltechniken entwickelt, die nicht auf domänenspezifischen Beschränkungen beruhend den gesamten enzyklopädischen Wissenskreis abdecken. Die entwickelten Formalismen erwiesen sich nicht nur zur Abfrage des enzyklopädischen Wissens in natürlicher Sprache als geeignet, sondern konnten auch darauf basierend neuartige Formen der Visualisierung von Wissenszusammenhängen implementiert werden. Die Ergebnisse zeigen zum einen Möglichkeiten erfolgreichen semantischen Retrievals ohne extensiven Einsatzformaler Metacodierungen, zum anderen weisen sie den Weg und die nächsten Schritte bei der Entwicklung noch leistungsfähigerer Mensch-Maschine-Schnittstellen.
  3. Leidig, T.: Ontologien für die Informationsintegration in Geschäftsanwendungen (2006) 0.02
    0.022471871 = product of:
      0.044943742 = sum of:
        0.044943742 = product of:
          0.089887485 = sum of:
            0.089887485 = weight(_text_:wissen in 6024) [ClassicSimilarity], result of:
              0.089887485 = score(doc=6024,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40433416 = fieldWeight in 6024, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6024)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Informationsintegration auf Basis semantischer Modelle ist ein viel versprechender Ansatz zur Bewältigung des Informationsüberflusses. Informationen und Wissen stehen oft in großer Menge zur Verfügung, doch es ist sehr schwierig, das Wissen in einer spezifischen Situation zu fin-den oder überhaupt gewahr zu sein, dass adäquate Informationen vorhanden sind. Der Prozess des Suchens erfordert sehr viel Geduld und Erfahrung. Reine textuelle Suchmaschinen wie Google führen leider oft nicht oder nicht effizient genug zum Ziel. Eine zentrale Herausforderung ist daher die Filterung und strukturierte Aufbereitung von Informationen im Kontext der aktuellen Arbeitsumgebung und der jeweiligen Aufgabenstellung. Semantische Metadaten können dabei helfen, diese Abbildung vorhandener Informationsquellen in den Aufgabenkontext zu bewerkstelligen. Doch wie kommt man zu geeigneten, reichhaltigen semantischen Metadaten? Nach heutiger Praxis geschieht das hauptsächlich durch manuelle Verfahren, die allerdings auch viele Probleme aufwerfen. Daher ist der Erfolg semantischer Informationsintegration in hohem Maße davon abhängig, ob es gelingt semantische Metadaten automatisch zu extrahieren und hinreichend aktuell zu halten.
  4. Zeh, T.: Ontologien in den Informationswissenschaften (2011) 0.02
    0.021186683 = product of:
      0.042373367 = sum of:
        0.042373367 = product of:
          0.08474673 = sum of:
            0.08474673 = weight(_text_:wissen in 4981) [ClassicSimilarity], result of:
              0.08474673 = score(doc=4981,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38120988 = fieldWeight in 4981, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4981)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Seit etwa zwei Jahren gibt es im webbasieren sozialen Netzwerk XING (vormals openBC) die Arbeitsgruppe Ontologien in den Informationswissenschaften: Theorien, Methodologien, Technologien und Anwendungen. Die von Anatol Reibold initiierte Arbeitsgruppe mit inzwischen mehr als 800 Mitgliedern will vor allem das Thema Ontologien in den Informationswissenschaften voranbringen, ein Netzwerk von Ontologen autbauen und Wissen über das Thema austauschen. Im Forum werden grundsätzliche wie auch aktuelle Themen diskutiert, über neue Entwicklungen berichtet und Tipps zur Literatur gegeben."
  5. Endres-Niggemeyer, B.: Bessere Information durch Zusammenfassen aus dem WWW (1999) 0.02
    0.021186683 = product of:
      0.042373367 = sum of:
        0.042373367 = product of:
          0.08474673 = sum of:
            0.08474673 = weight(_text_:wissen in 4496) [ClassicSimilarity], result of:
              0.08474673 = score(doc=4496,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38120988 = fieldWeight in 4496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am Beispiel der Knochenmarktransplantation, eines medizinischen Spezialgebietes, wird im folgenden dargelegt, wie man BenutzerInnen eine großen Teil des Aufwandes bei der Wissensbeschaffung abnehmen kann, indem man Suchergebnisse aus dem Netz fragebezogen zusammenfaßt. Dadurch wird in zeitkritischen Situationen, wie sie in Diagnose und Therapie alltäglich sind, die Aufnahme neuen Wissens ermöglicht. Auf einen Überblick über den Stand des Textzusammenfassens und der Ontologieentwicklung folgt eine Systemskizze, in der die Informationssuche im WWW durch ein kognitiv fundiertes Zusammenfassungssystem ergänzt wird. Dazu wird eine Fach-Ontologie vorgeschlagen, die das benötigte Wissen organisiert und repräsentiert.
  6. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.02
    0.021186683 = product of:
      0.042373367 = sum of:
        0.042373367 = product of:
          0.08474673 = sum of:
            0.08474673 = weight(_text_:wissen in 2568) [ClassicSimilarity], result of:
              0.08474673 = score(doc=2568,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38120988 = fieldWeight in 2568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2568)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Wirklichkeit und Wissen : Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften (1992) 0.02
    0.021186683 = product of:
      0.042373367 = sum of:
        0.042373367 = product of:
          0.08474673 = sum of:
            0.08474673 = weight(_text_:wissen in 4606) [ClassicSimilarity], result of:
              0.08474673 = score(doc=4606,freq=8.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38120988 = fieldWeight in 4606, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4606)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieser Band ist interdisziplinär - philosophisch, psychologisch, linguistisch, neurobiologisch - Fragen der Wissenschaftsphilosophie gewidmet: Was ist 'Wirklichkeit'? Repräsentiert Wissen Realität? Oder ist 'Wirklichkeit' Konstruktion nach dem Maß menschlichen Geistes? Welche Konzepte von 'Wirklichkeit' und 'Wissen' setzen - im Rahmen welcher wissenschaftlicher Weltbilder - Wissenschaftler in ihren Beschreibungen und Erklärungen von Welt voraus? Gibt es eine Realität, die in ihrer Existenz wie Beschaffenheit unabhängig ist von menschlichen Erfahrungen, Denkformen und Annahmen (Alltagsrealismus)? Existieren die Entitäten wissenschaftlicher Theorien, ob beobachtbar oder nicht, unabhängig von mentalen (phänomenalen, intentionalen) Zuständen (Wissenschaftsrealismus)? Sind - wie dies Physikalismus, Naturalismus und wissenschaftlicher Realismus annehmen - die einzigen existierenden Entitäten physische und physikalisch beschreibbare und können physikalische Gesetze alles erklären, was erklärt werden kann?
    Content
    Enthält die Beiträge: KUTSCHERA, F. von: Der erkenntnistheoretische Realismus; FRANZEN, W.: Idealismus statt Realismus? Realismus plus Skeptizismus!; KREISER, L.: Bruno Bauchs idealistischer Realismus. Votum im Anschluß an Winfried Franzen; DIEDERICH, W.: Probleme und Grenzen des Anti-Realismus; RHEINWALD, R.: Der Schluß auf die beste Erklärung und das Induktionsproblem. Votum zu Werner Diederich; BÜHLER, A.: Antirealismus und Verifikationismus; RHEINWALD, R.: Bemerkungen zu einem bedeutungstheoretischen Argument gegen den Realismus. Votum zu Axel Bühler; ERPENBECK, J.: Psychologie: Gratwanderung zwischen Realismus und Konstruktivismus; ROTH, G. u. H. SCHWEGLER: Kognitive Referenz und Selbstreferentialität des Gehirns. Ein Beitrag zur Klärung des Verhältnisses zwischen Erkenntnistheorie und Hirnforschung; Voten dazu von: H. TETENS, M. BOENKE u. L. LÄSKER; WILDGEN, W.: Semantischer Realismus und Antirealismus in der Sprachtheorie; BECKERMANN, A.: Wie real sind intentionale Zustände? Dennett zwischen Fodor und den Churchlands; ENGEL, P.: Teleosemantics: realistic or anti-realistic? Votum; HOLENSTEIN, E.: Ein Grund, kein Epiphänomenalist zu sein. Votum; SANDKÜHLER, H.J.: Epistemologischer Realismus und die Wirklichkeit des Wissens. Eine Verteidigung des Philosophie des Geistes gegen Naturalismus und Reduktionismus; PÄTZOLD, D.: Intellectus effabilis. Votum zu Hans Jörg Sandkühler; METSCHER, T.: 'Episteme': Wissen als anthropologisches Datum. Grundsätze einer elementaren Epistemologie. Votum zu Hans Jörg Sandkühler; PASTERNACK, G.: Realismus vs Antirealismus. Ein wissenschaftsphilosophisches Explikationsproblem. Votum
  8. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.02
    0.01872656 = product of:
      0.03745312 = sum of:
        0.03745312 = product of:
          0.07490624 = sum of:
            0.07490624 = weight(_text_:wissen in 5901) [ClassicSimilarity], result of:
              0.07490624 = score(doc=5901,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33694512 = fieldWeight in 5901, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  9. Rahmstorf, G.: Strukturierung von inhaltlichen Daten : Topic Maps und Concepto (2004) 0.02
    0.018538348 = product of:
      0.037076697 = sum of:
        0.037076697 = product of:
          0.07415339 = sum of:
            0.07415339 = weight(_text_:wissen in 3143) [ClassicSimilarity], result of:
              0.07415339 = score(doc=3143,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33355865 = fieldWeight in 3143, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3143)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  10. Scheir, P.; Pammer, V.; Lindstaedt, S.N.: Information retrieval on the Semantic Web : does it exist? (2007) 0.02
    0.018538348 = product of:
      0.037076697 = sum of:
        0.037076697 = product of:
          0.07415339 = sum of:
            0.07415339 = weight(_text_:wissen in 4329) [ClassicSimilarity], result of:
              0.07415339 = score(doc=4329,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33355865 = fieldWeight in 4329, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4329)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Lernen - Wissen - Adaption : workshop proceedings / LWA 2007, Halle, September 2007. Martin Luther University Halle-Wittenberg, Institute for Informatics, Databases and Information Systems. Hrsg.: Alexander Hinneburg
  11. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.02
    0.018348206 = product of:
      0.03669641 = sum of:
        0.03669641 = product of:
          0.07339282 = sum of:
            0.07339282 = weight(_text_:wissen in 3359) [ClassicSimilarity], result of:
              0.07339282 = score(doc=3359,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33013746 = fieldWeight in 3359, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3359)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  12. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.02
    0.018348206 = product of:
      0.03669641 = sum of:
        0.03669641 = product of:
          0.07339282 = sum of:
            0.07339282 = weight(_text_:wissen in 4498) [ClassicSimilarity], result of:
              0.07339282 = score(doc=4498,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33013746 = fieldWeight in 4498, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4498)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
  13. Schmitz-Esser, W.: Language of general communication and concept compatibility (1996) 0.02
    0.017459216 = product of:
      0.03491843 = sum of:
        0.03491843 = product of:
          0.06983686 = sum of:
            0.06983686 = weight(_text_:22 in 6089) [ClassicSimilarity], result of:
              0.06983686 = score(doc=6089,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38690117 = fieldWeight in 6089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6089)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    S.11-22
  14. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.02
    0.017459216 = product of:
      0.03491843 = sum of:
        0.03491843 = product of:
          0.06983686 = sum of:
            0.06983686 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06983686 = score(doc=5576,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    13.12.2017 14:17:22
  15. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.02
    0.017459216 = product of:
      0.03491843 = sum of:
        0.03491843 = product of:
          0.06983686 = sum of:
            0.06983686 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
              0.06983686 = score(doc=539,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38690117 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26.12.2011 13:22:07
  16. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.02
    0.017459216 = product of:
      0.03491843 = sum of:
        0.03491843 = product of:
          0.06983686 = sum of:
            0.06983686 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06983686 = score(doc=3406,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30. 5.2010 16:22:35
  17. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.02
    0.017459216 = product of:
      0.03491843 = sum of:
        0.03491843 = product of:
          0.06983686 = sum of:
            0.06983686 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.06983686 = score(doc=4523,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  18. Becker, H.-G.; Förster, F.: Vernetztes Wissen : Ereignisse in der bibliografischen Dokumentation (2010) 0.02
    0.015890013 = product of:
      0.031780027 = sum of:
        0.031780027 = product of:
          0.06356005 = sum of:
            0.06356005 = weight(_text_:wissen in 3494) [ClassicSimilarity], result of:
              0.06356005 = score(doc=3494,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.28590742 = fieldWeight in 3494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3494)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  19. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.02
    0.015890013 = product of:
      0.031780027 = sum of:
        0.031780027 = product of:
          0.06356005 = sum of:
            0.06356005 = weight(_text_:wissen in 4332) [ClassicSimilarity], result of:
              0.06356005 = score(doc=4332,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.28590742 = fieldWeight in 4332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  20. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.02
    0.015890013 = product of:
      0.031780027 = sum of:
        0.031780027 = product of:
          0.06356005 = sum of:
            0.06356005 = weight(_text_:wissen in 4333) [ClassicSimilarity], result of:
              0.06356005 = score(doc=4333,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.28590742 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.

Authors

Years

Languages

  • d 50
  • e 45

Types

  • a 64
  • el 21
  • x 10
  • m 9
  • r 3
  • s 2
  • n 1
  • p 1
  • More… Less…