Search (36 results, page 1 of 2)

  • × theme_ss:"Wissensrepräsentation"
  • × type_ss:"el"
  1. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.02
    0.018107262 = product of:
      0.054321785 = sum of:
        0.03177729 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.03177729 = score(doc=318,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34197432 = fieldWeight in 318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=318)
        0.022544496 = product of:
          0.04508899 = sum of:
            0.04508899 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.04508899 = score(doc=318,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In der Session "Knowledge Representation" auf der ISI 2021 wurden unter der Moderation von Jürgen Reischer (Uni Regensburg) drei Projekte vorgestellt, in denen Knowledge Representation mit RDF umgesetzt wird. Die Domänen sind erfreulich unterschiedlich, die gemeinsame Klammer indes ist die Absicht, den Zugang zu Forschungsdaten zu verbessern: - Japanese Visual Media Graph - Taxonomy of Digital Research Activities in the Humanities - Forschungsdaten im konzeptuellen Modell von FRBR
    Date
    22. 5.2021 12:43:05
  2. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.017277677 = product of:
      0.051833026 = sum of:
        0.032106593 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.032106593 = score(doc=4324,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.039452866 = score(doc=4324,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  3. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.02
    0.017037967 = product of:
      0.0511139 = sum of:
        0.02293328 = weight(_text_:der in 539) [ClassicSimilarity], result of:
          0.02293328 = score(doc=539,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=539)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
              0.05636124 = score(doc=539,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Präsentation während der Veranstaltung "Networked Knowledge Organization Systems and Services: The 6th European Networked Knowledge Organization Systems (NKOS) Workshop, Workshop at the 11th ECDL Conference, Budapest, Hungary, September 21st 2007".
    Date
    26.12.2011 13:22:07
  4. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.01
    0.008090101 = product of:
      0.048540607 = sum of:
        0.048540607 = weight(_text_:der in 4499) [ClassicSimilarity], result of:
          0.048540607 = score(doc=4499,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5223744 = fieldWeight in 4499, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  5. Schubert, C.; Kinkeldey, C.; Reich, H.: Handbuch Datenbankanwendung zur Wissensrepräsentation im Verbundprojekt DeCOVER (2006) 0.01
    0.006837384 = product of:
      0.0410243 = sum of:
        0.0410243 = weight(_text_:der in 4256) [ClassicSimilarity], result of:
          0.0410243 = score(doc=4256,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 4256, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Datenbank basierte Objektartenbeschreibung dient zur eigenschaftsbasierten Aufnahme aller Objektarten der Kataloge BNTK, CLC; GMES M 2.1, ATKIS und des DeCOVER Vorschlags. Das Ziel der Datenbankanwendung besteht in der 'manuellen' Beziehungsauswertung und Darstellung der gesamten Objektarten bezogen auf die erstellte Wissensrepräsentation. Anhand einer hierarchisch strukturierten Wissensrepräsentation lassen sich mit Ontologien Überführungen von Objektarten verwirklichen, die im Sinne der semantischen Interoperabilität als Zielstellung in dem Verbundprojekt DeCOVER besteht.
  6. Endres-Niggemeyer, B.: Bessere Information durch Zusammenfassen aus dem WWW (1999) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 4496) [ClassicSimilarity], result of:
          0.03669325 = score(doc=4496,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 4496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4496)
      0.16666667 = coord(1/6)
    
    Abstract
    Am Beispiel der Knochenmarktransplantation, eines medizinischen Spezialgebietes, wird im folgenden dargelegt, wie man BenutzerInnen eine großen Teil des Aufwandes bei der Wissensbeschaffung abnehmen kann, indem man Suchergebnisse aus dem Netz fragebezogen zusammenfaßt. Dadurch wird in zeitkritischen Situationen, wie sie in Diagnose und Therapie alltäglich sind, die Aufnahme neuen Wissens ermöglicht. Auf einen Überblick über den Stand des Textzusammenfassens und der Ontologieentwicklung folgt eine Systemskizze, in der die Informationssuche im WWW durch ein kognitiv fundiertes Zusammenfassungssystem ergänzt wird. Dazu wird eine Fach-Ontologie vorgeschlagen, die das benötigte Wissen organisiert und repräsentiert.
  7. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 4498) [ClassicSimilarity], result of:
          0.03669325 = score(doc=4498,freq=32.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 4498, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
      0.16666667 = coord(1/6)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
    Content
    Dissertation zur Erlangung des Grades eines Doctor philosophiae (Dr. phil.) vorgelegt an der Philosophischen Fakultät der Martin-Luther-Universität Halle-Wittenberg verteidigt am 11.07.2001. Vgl.: http://sundoc.bibliothek.uni-halle.de/diss-online/01/01H114/.
  8. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 2568) [ClassicSimilarity], result of:
          0.03669325 = score(doc=2568,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 2568, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
      0.16666667 = coord(1/6)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
    Content
    Folien der Präsentation anlässlich des GENIOS Datenbankfrühstücks 2016, 19. Oktober 2016.
  9. Pichler, R.: Annäherung an die Bildsprache : Ontologien als Hilfsmittel für Bilderschliessung und Bildrecherche in Kunstbilddatenbanken (2007) 0.01
    0.006067576 = product of:
      0.036405455 = sum of:
        0.036405455 = weight(_text_:der in 4821) [ClassicSimilarity], result of:
          0.036405455 = score(doc=4821,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3917808 = fieldWeight in 4821, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
      0.16666667 = coord(1/6)
    
    Abstract
    Der grundsätzliche Unterschied zwischen der verbalen Sprache und der so genannten Bildsprache führt zu erheblichen Schwierigkeiten bei der Bilderschliessung und der Bildrecherche. Die heute übliche inhaltliche Bilderschliessung mit einzelnen Schlagwörtern ist häufig unbefriedigend, insbesondere was die Erschliessung der verschiedenen Bildbedeutungen und -wirkungen betrifft. Um eine Annäherung an die Bildsprache erreichen zu können, wird in der vorliegenden Arbeit vorgeschlagen, Bilder als komplexe Zeichensysteme aus Motiv- und Bildelementen, Bedeutungen und Wirkungen zu verstehen. Diese Zeichensysteme werden in Ontologien festgehalten, womit die Relationen zwischen den verschiedenen Bildzeichen aufgezeigt werden. Dabei wird untersucht, inwiefern mit solchen Ontologien Bildbedeutungen und -wirkungen erschlossen werden können und wie mit Ontologien sowohl eine einheitliche als auch eine umfassende Bilderschliessung realisiert werden kann, die auch für die Bildrecherche grosse Vorteile bietet.
  10. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.01
    0.0054892367 = product of:
      0.03293542 = sum of:
        0.03293542 = weight(_text_:der in 2678) [ClassicSimilarity], result of:
          0.03293542 = score(doc=2678,freq=66.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35443765 = fieldWeight in 2678, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.16666667 = coord(1/6)
    
    Content
    "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
    Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
    Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
    Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."
  11. Borchers, D.: Missing Link : Wenn der Kasten denkt - Niklas Luhmann und die Folgen (2017) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 2358) [ClassicSimilarity], result of:
          0.032432556 = score(doc=2358,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 2358, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2358)
      0.16666667 = coord(1/6)
    
    Source
    https://www.heise.de/newsticker/meldung/Missing-Link-Wenn-der-Kasten-denkt-Niklas-Luhmann-und-die-Folgen-3919843.html
  12. Hesse, W.: Informationsbegriff in Natur- und Kulturwissenschaften : Vorlesung/Seminar im WS 2004/05 (2004) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 3058) [ClassicSimilarity], result of:
          0.032432556 = score(doc=3058,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 3058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
      0.16666667 = coord(1/6)
    
    Abstract
    Enthält eine Darstellung des semiotischen Tetraeders und das Konzept der FRISCO-Gruppe
    Content
    1 - Die Rolle der Sprache 2 - Semiotik, Semiotische Dreiecke 3 - FRISCO-Ansatz 4 - Semiotisch verankerter Informationsbegriff 5 - Informationssysteme 6 - Schlussbetrachtung
  13. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 4425) [ClassicSimilarity], result of:
          0.032432556 = score(doc=4425,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 4425, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
  14. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 4497) [ClassicSimilarity], result of:
          0.032432556 = score(doc=4497,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 4497, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.16666667 = coord(1/6)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  15. Wachsmann, L.: Entwurf und Implementierung eines Modells zur Visualisierung von OWL-Properties als Protégé-PlugIn mit Layoutalgorithmen aus Graphviz (2008) 0.01
    0.005296215 = product of:
      0.03177729 = sum of:
        0.03177729 = weight(_text_:der in 4173) [ClassicSimilarity], result of:
          0.03177729 = score(doc=4173,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34197432 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
      0.16666667 = coord(1/6)
    
    Abstract
    Diese Diplomarbeit beschäftigt sich mit der Erstellung eines PlugIns für den Ontologie-Editor Protégé. Das PlugIn visualisiert Objekt-Properties als Verknüpfungen zwischen zwei OWL-Klassen. Als Ausgangspunkt für die Entwicklung dient das PlugIn OWLViz, das Vererbungshierarchien von OWL-Klassen als Graphen darstellt. Die Platzierung der Knoten und Kanten des Graphen wird von Algorithmen der Programmbibliothek Graphviz vorgenommen.
  16. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.01
    0.005128037 = product of:
      0.030768223 = sum of:
        0.030768223 = weight(_text_:der in 4322) [ClassicSimilarity], result of:
          0.030768223 = score(doc=4322,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3311152 = fieldWeight in 4322, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  17. Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004) 0.01
    0.005128037 = product of:
      0.030768223 = sum of:
        0.030768223 = weight(_text_:der in 4681) [ClassicSimilarity], result of:
          0.030768223 = score(doc=4681,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3311152 = fieldWeight in 4681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4681)
      0.16666667 = coord(1/6)
    
    Abstract
    Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
  18. Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage? 0.00
    0.004777767 = product of:
      0.028666602 = sum of:
        0.028666602 = weight(_text_:der in 4393) [ClassicSimilarity], result of:
          0.028666602 = score(doc=4393,freq=50.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.30849838 = fieldWeight in 4393, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
      0.16666667 = coord(1/6)
    
    Content
    Vgl. auch Mitgliederbrief Ernst-Schröder-Zentrum, Nr.41: "Die aktuelle Entwicklung insbesondere der Internettechnologien führte in den letzten Jahren zu einem Wieder-Erwachen des Interesses von Forschern und Anwendern an (technischen) Ontologien. Typische Visionen in diesem Zusammenhang sind das ,Semantic Web' und das ,Internet der Dinge' (Web 3.0). Technische Ontologien sind formale, zeichenvermittelte symbolische Repräsentationen von lebensweltlichen Zusammenhängen, die notwendigerweise zu einem großen Teil von ihrem Kontextbezug gelöst werden und über die ursprünglichen lebensweltlichen Zusammenhänge hinaus computerverarbeitbar verfügbar werden. Häufig werden dafür XML-basierte Beschreibungssprachen eingesetzt wie z.B. der OWL-Standard. Trotz des großen Interesses sind jedoch umfangreiche und erfolgreiche Beispiele von in größerem Umfang praktisch eingesetzten (technischen) Ontologien eher die Ausnahme. Die zentrale Fragestellung unseres Beitrags ist daher, ob es eventuell grundlegendere (möglicherweise auch außertechnische) Hürden gibt auf dem Weg zu einer Verwirklichung der oft visionären Vorstellungen, wie z.B. zukünftig E-Commerce und E-Business und ,Wissensmanagement' durch technische Ontologien unterstützt werden könnten: Oder ist alles vielleicht ,nur' eine Frage der Zeit, bis wir durch ausreichend leistungsfähige Technologien für solche technischen Ontologien die Versprechungen des ,Internet der Dinge' verwirklichen können?
    Als theoretischen Ausgangspunkt wählen wir in unserem Beitrag eine medienphilosophische Perspektive, die von der Fragestellung ausgeht, inwieweit menschliches Wissen, das von Subjekten explizit oder implizit gewusst wird und Sinn und Bedeutungsbezüge hat, bereits dadurch prinzipiell verändert und möglicherweise um Wesentliches reduziert wird, wenn es in technischen Ontologien - notwendigerweise symbolhaft - repräsentiert wird. Zunächst wird dazu in unserem Beitrag historisch die jahrhundertelange Tradition insbesondere der abendländischen Kulturen seit dem Mittelalter nachgezeichnet, derzufolge zunehmend die epistemische Seite von ,Wissen' in den Vordergrund gestellt wurde, die sich besonders gut symbolisch, d.h. zeichenvermittelt darstellen lässt. Demgegenüber sind wissenschaftshistorisch andere Aspekte menschlichen Wissens wie z.B. die soziale Einbettung symbolvermittelten Wissens und Anteile ,impliziten Wissens' zunehmend in den Hintergrund getreten. Auch Fragen nach Sinn und Bedeutung bzw. reflektionsorientiertem Orientierungswissen sind teilweise davon betroffen.
    Zweifelsohne hat die wissenschaftshistorisch begründete Bevorzugung epistemischen Wissens in Verbindung mit der symbolischen Repräsentation (z.B. in Büchern und zunehmend auch in digitaler, computerverarbeitbarer Form) wesentlich zur Herausbildung unseres aktuellen materiellen Wohlstands und technologischen Fortschritts in den Industrieländern beigetragen. Vielleicht hat jedoch gerade dieser Siegeszug der epistemischen, symbolhaft repräsentierten Seite menschlichen Wissens auch dazu beigetragen, dass die eher verdeckten Beiträge der begleitenden sozialen Prozesse und impliziten Anteile menschlichen Wissens erst in den allerletzten Jahren wieder zunehmend Aufmerksamkeit erhalten. Nur vor dieser wissenschaftshistorischen Kulisse kann schließlich auch erklärt werden, dass in vielen Organisationen das Schlagwort vom ,Wissens-management' oft verkürzend so verstanden wurde, von (technischen) Wissensrepräsentationssystemen zu erhoffen, dass sie als Technologie bereits unmittelbar zum gegenseitigen Wissensaustausch und Wissenstransfer für die Menschen beitragen würden, was in der Praxis dann jedoch oft nicht so wie erhofft eingetreten ist.
    Zusätzlich zu diesen Überlegungen treten sprachphilosophische Grundsatzüberlegungen: Jeder semantische Definitionsversuch einer technischen Ontologie muss durch Verwendung von Metasprachen erfolgen - letztlich kommt man hier wahrscheinlich nicht ohne die Verwendung natürlicher Sprache aus. Sehr schnell wird man also in einen unendlichen Regress verwiesen, wenn man versucht, technische Ontologien 'vollständig' durch weitere technische Ontologien zu beschreiben. Im Fortgang der Argumentation wird dann aufgezeigt, dass eine wesentliche Herausforderung bei technischen Ontologien also darin liegt, angesichts der Vielschichtigkeit menschlichen Wissens die Möglichkeiten (aber auch notwendigen Begrenzungen) symbolvermittelter Wissensrepräsentationen zu verbinden mit Formen der situativen und intersubjektiven Interpretation dieser symbolhaften Repräsentationen in sozialen Prozessen und in natürlicher Sprache. Nur so kann man auch dem Problem des skizzierten 'infiniten Regresses' begegnen, wonach die Bedeutung einer (technischen) Ontologie nie vollständig wieder selbst durch (technische) Ontologien beschrieben werden kann.
    In der Finanzwirtschaft mit ihren automatisierten Handelssystemen (auf Basis technischer Ontologien) wird beispielsweise inzwischen bei außergewöhnlichen Kursbewegungen der Börse der automatische Handel unterbrochen, so dass dann auf pragmatisch-natürlichsprachliche Weise nach den Gründen für die Ausschläge gesucht werden kann. Aus Sicht der technischen Ontologien wäre eine solche Unterbrechung des Computerhandels (zur Beruhigung der Märkte) nicht zwingend erforderlich, aber sie ist sehr sinnvoll aus einer außerhalb der technischen Ontologie stehenden Perspektive, die alleine nach Sinn und Bedeutung stabiler Kursverläufe zu fragen imstande ist. Der hier sich abzeichnende ,pragmatic turn' beim Einsatz technischer Ontologien ist auch in vielfältiger Weise in Trends wie z.B. Folksonomies, Sozialen Netzwerken und Open-SourceEntwicklergruppen zu erkennen. Diese Gemeinschaften zeichnen sich dadurch aus, dass sie zwar (technische) Ontologien einsetzen, diese jedoch in intensive soziale Austauschprozesse einbinden, in denen die formalen Wissensrepräsentationen mit situativer Bedeutung und Sinn versehen und angereichert werden. Dieser Trend zu ,weicheren' Formen der Nutzung von (technischen) Ontologien scheint nach aktuellem Wissensstand auf jeden Fall in der Praxis erfolgversprechender als die anfänglichen Hoffnungen des Semantic Web oder vollständiger (technischer) Ontologien - ganz abgesehen vom laufenden Pflegeaufwand 'vollständiger' technischer Ontologien.
    In diesem Sinne könnte auch Wissensaustausch und Wissensmanagement in Organisationen auf Basis (technischer) Ontologien eine neue Bedeutung erhalten im Sinne einer gezielten Ermöglichung sozialer Austauschprozesse unter Nutzung formaler Wissensrepräsentationen statt der technologiezentrierten Sichtweise, wonach bereits das Wissensrepräsentationssystem mit Wissensaustausch gleichzusetzen wäre. Letztlich haben die in (formalen) Wissensrepräsentationssystemen dargestellten technischen Ontologien alleine nämlich keine tiefere Bedeutung und auch keinen Sinn. Beides entsteht erst durch eine entsprechende Einbettung und Interpretation dieser Repräsentationen in konkreten lebensweltlichen Zusammenhängen. Und was die Menschen in diesem Interpretations-und Rekontextualisierungsprozess dann aus den zeichenvermittelten technischen Ontologien machen, ist glücklicherweise eine Frage, die sich einer vollständigen Behandlung und Abbildung in technischen Ontologien entzieht."
  19. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.00
    0.00469677 = product of:
      0.02818062 = sum of:
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.05636124 = score(doc=5576,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    13.12.2017 14:17:22
  20. Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006) 0.00
    0.004634188 = product of:
      0.027805127 = sum of:
        0.027805127 = weight(_text_:der in 5174) [ClassicSimilarity], result of:
          0.027805127 = score(doc=5174,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29922754 = fieldWeight in 5174, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5174)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Tutorium vermittelt theoretische Grundlagen der wissensorganisatorischen (semantischen) Integration und zeigt auch einige praktische Beispiele. Die Integration bezieht sich auf die Ebenen: Integration von ähnlichen Einträgen in verschiedenen Ontologien (Begriffe und Beziehungen) sowie von Aussagen über gleiche Aussagegegenstände und zugehörige Informationsressourcen. Hierzu werden ausgewählte semantische Wissenstechnologien (Topic Maps und RDF) und -werkzeuge vorgestellt und mit wissensorganisatorischen Grundlagen verbunden (z.B. SKOS - Simple Knowledge Organization Systems, http://www.w3.org/2004/02/skos/, oder Published Resource Identifiers).
    Content
    Tutorium auf der 10. Deutschen ISKO-Tagung (Wissensorganisation 2006): Kompatibilität und Heterogenität in der Wissensorganisation Universität Wien, Montag 03. Juli 2006.