Search (122 results, page 2 of 7)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  1. Franzen, W.: Idealismus statt Realismus? : Realismus plus Skeptizismus! (1992) 0.01
    0.009077806 = product of:
      0.08623916 = sum of:
        0.02155979 = weight(_text_:und in 4612) [ClassicSimilarity], result of:
          0.02155979 = score(doc=4612,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 4612, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4612)
        0.02155979 = weight(_text_:und in 4612) [ClassicSimilarity], result of:
          0.02155979 = score(doc=4612,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 4612, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4612)
        0.02155979 = weight(_text_:und in 4612) [ClassicSimilarity], result of:
          0.02155979 = score(doc=4612,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 4612, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4612)
        0.02155979 = weight(_text_:und in 4612) [ClassicSimilarity], result of:
          0.02155979 = score(doc=4612,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 4612, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4612)
      0.10526316 = coord(4/38)
    
    Series
    Philosophie und Geschichte der Wissenschaften; Bd.18
    Source
    Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
  2. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.01
    0.0090420395 = product of:
      0.0687195 = sum of:
        0.016169844 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.016169844 = score(doc=4322,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.016169844 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.016169844 = score(doc=4322,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 4322) [ClassicSimilarity], result of:
              0.008080241 = score(doc=4322,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 4322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
        0.016169844 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.016169844 = score(doc=4322,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.016169844 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.016169844 = score(doc=4322,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.13157895 = coord(5/38)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  3. Schubert, C.; Kinkeldey, C.; Reich, H.: Handbuch Datenbankanwendung zur Wissensrepräsentation im Verbundprojekt DeCOVER (2006) 0.01
    0.008800973 = product of:
      0.0557395 = sum of:
        0.010163383 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
          0.010163383 = score(doc=4256,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
        0.010163383 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
          0.010163383 = score(doc=4256,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
        0.009051581 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 4256) [ClassicSimilarity], result of:
              0.018103162 = score(doc=4256,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 4256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4256)
          0.5 = coord(1/2)
        0.010163383 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
          0.010163383 = score(doc=4256,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
        0.010163383 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
          0.010163383 = score(doc=4256,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 4256) [ClassicSimilarity], result of:
              0.018103162 = score(doc=4256,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 4256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4256)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Datenbank basierte Objektartenbeschreibung dient zur eigenschaftsbasierten Aufnahme aller Objektarten der Kataloge BNTK, CLC; GMES M 2.1, ATKIS und des DeCOVER Vorschlags. Das Ziel der Datenbankanwendung besteht in der 'manuellen' Beziehungsauswertung und Darstellung der gesamten Objektarten bezogen auf die erstellte Wissensrepräsentation. Anhand einer hierarchisch strukturierten Wissensrepräsentation lassen sich mit Ontologien Überführungen von Objektarten verwirklichen, die im Sinne der semantischen Interoperabilität als Zielstellung in dem Verbundprojekt DeCOVER besteht.
    Date
    29. 1.2011 18:45:23
  4. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.01
    0.008795372 = product of:
      0.06684483 = sum of:
        0.015403059 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.015403059 = score(doc=1852,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.015403059 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.015403059 = score(doc=1852,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.015403059 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.015403059 = score(doc=1852,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.015403059 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.015403059 = score(doc=1852,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.0052325907 = product of:
          0.015697772 = sum of:
            0.015697772 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.015697772 = score(doc=1852,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  5. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.008795372 = product of:
      0.06684483 = sum of:
        0.015403059 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.015403059 = score(doc=4324,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.015403059 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.015403059 = score(doc=4324,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.015403059 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.015403059 = score(doc=4324,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.015403059 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.015403059 = score(doc=4324,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.0052325907 = product of:
          0.015697772 = sum of:
            0.015697772 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.015697772 = score(doc=4324,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  6. Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage? 0.01
    0.008114634 = product of:
      0.051392682 = sum of:
        0.011669579 = weight(_text_:und in 4393) [ClassicSimilarity], result of:
          0.011669579 = score(doc=4393,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3181036 = fieldWeight in 4393, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
        0.011669579 = weight(_text_:und in 4393) [ClassicSimilarity], result of:
          0.011669579 = score(doc=4393,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3181036 = fieldWeight in 4393, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
        0.002828619 = product of:
          0.005657238 = sum of:
            0.005657238 = weight(_text_:29 in 4393) [ClassicSimilarity], result of:
              0.005657238 = score(doc=4393,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.097163305 = fieldWeight in 4393, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4393)
          0.5 = coord(1/2)
        0.011669579 = weight(_text_:und in 4393) [ClassicSimilarity], result of:
          0.011669579 = score(doc=4393,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3181036 = fieldWeight in 4393, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
        0.011669579 = weight(_text_:und in 4393) [ClassicSimilarity], result of:
          0.011669579 = score(doc=4393,freq=54.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3181036 = fieldWeight in 4393, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
        0.001885746 = product of:
          0.005657238 = sum of:
            0.005657238 = weight(_text_:29 in 4393) [ClassicSimilarity], result of:
              0.005657238 = score(doc=4393,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.097163305 = fieldWeight in 4393, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4393)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Content
    Vgl. auch Mitgliederbrief Ernst-Schröder-Zentrum, Nr.41: "Die aktuelle Entwicklung insbesondere der Internettechnologien führte in den letzten Jahren zu einem Wieder-Erwachen des Interesses von Forschern und Anwendern an (technischen) Ontologien. Typische Visionen in diesem Zusammenhang sind das ,Semantic Web' und das ,Internet der Dinge' (Web 3.0). Technische Ontologien sind formale, zeichenvermittelte symbolische Repräsentationen von lebensweltlichen Zusammenhängen, die notwendigerweise zu einem großen Teil von ihrem Kontextbezug gelöst werden und über die ursprünglichen lebensweltlichen Zusammenhänge hinaus computerverarbeitbar verfügbar werden. Häufig werden dafür XML-basierte Beschreibungssprachen eingesetzt wie z.B. der OWL-Standard. Trotz des großen Interesses sind jedoch umfangreiche und erfolgreiche Beispiele von in größerem Umfang praktisch eingesetzten (technischen) Ontologien eher die Ausnahme. Die zentrale Fragestellung unseres Beitrags ist daher, ob es eventuell grundlegendere (möglicherweise auch außertechnische) Hürden gibt auf dem Weg zu einer Verwirklichung der oft visionären Vorstellungen, wie z.B. zukünftig E-Commerce und E-Business und ,Wissensmanagement' durch technische Ontologien unterstützt werden könnten: Oder ist alles vielleicht ,nur' eine Frage der Zeit, bis wir durch ausreichend leistungsfähige Technologien für solche technischen Ontologien die Versprechungen des ,Internet der Dinge' verwirklichen können?
    Als theoretischen Ausgangspunkt wählen wir in unserem Beitrag eine medienphilosophische Perspektive, die von der Fragestellung ausgeht, inwieweit menschliches Wissen, das von Subjekten explizit oder implizit gewusst wird und Sinn und Bedeutungsbezüge hat, bereits dadurch prinzipiell verändert und möglicherweise um Wesentliches reduziert wird, wenn es in technischen Ontologien - notwendigerweise symbolhaft - repräsentiert wird. Zunächst wird dazu in unserem Beitrag historisch die jahrhundertelange Tradition insbesondere der abendländischen Kulturen seit dem Mittelalter nachgezeichnet, derzufolge zunehmend die epistemische Seite von ,Wissen' in den Vordergrund gestellt wurde, die sich besonders gut symbolisch, d.h. zeichenvermittelt darstellen lässt. Demgegenüber sind wissenschaftshistorisch andere Aspekte menschlichen Wissens wie z.B. die soziale Einbettung symbolvermittelten Wissens und Anteile ,impliziten Wissens' zunehmend in den Hintergrund getreten. Auch Fragen nach Sinn und Bedeutung bzw. reflektionsorientiertem Orientierungswissen sind teilweise davon betroffen.
    Zweifelsohne hat die wissenschaftshistorisch begründete Bevorzugung epistemischen Wissens in Verbindung mit der symbolischen Repräsentation (z.B. in Büchern und zunehmend auch in digitaler, computerverarbeitbarer Form) wesentlich zur Herausbildung unseres aktuellen materiellen Wohlstands und technologischen Fortschritts in den Industrieländern beigetragen. Vielleicht hat jedoch gerade dieser Siegeszug der epistemischen, symbolhaft repräsentierten Seite menschlichen Wissens auch dazu beigetragen, dass die eher verdeckten Beiträge der begleitenden sozialen Prozesse und impliziten Anteile menschlichen Wissens erst in den allerletzten Jahren wieder zunehmend Aufmerksamkeit erhalten. Nur vor dieser wissenschaftshistorischen Kulisse kann schließlich auch erklärt werden, dass in vielen Organisationen das Schlagwort vom ,Wissens-management' oft verkürzend so verstanden wurde, von (technischen) Wissensrepräsentationssystemen zu erhoffen, dass sie als Technologie bereits unmittelbar zum gegenseitigen Wissensaustausch und Wissenstransfer für die Menschen beitragen würden, was in der Praxis dann jedoch oft nicht so wie erhofft eingetreten ist.
    Zusätzlich zu diesen Überlegungen treten sprachphilosophische Grundsatzüberlegungen: Jeder semantische Definitionsversuch einer technischen Ontologie muss durch Verwendung von Metasprachen erfolgen - letztlich kommt man hier wahrscheinlich nicht ohne die Verwendung natürlicher Sprache aus. Sehr schnell wird man also in einen unendlichen Regress verwiesen, wenn man versucht, technische Ontologien 'vollständig' durch weitere technische Ontologien zu beschreiben. Im Fortgang der Argumentation wird dann aufgezeigt, dass eine wesentliche Herausforderung bei technischen Ontologien also darin liegt, angesichts der Vielschichtigkeit menschlichen Wissens die Möglichkeiten (aber auch notwendigen Begrenzungen) symbolvermittelter Wissensrepräsentationen zu verbinden mit Formen der situativen und intersubjektiven Interpretation dieser symbolhaften Repräsentationen in sozialen Prozessen und in natürlicher Sprache. Nur so kann man auch dem Problem des skizzierten 'infiniten Regresses' begegnen, wonach die Bedeutung einer (technischen) Ontologie nie vollständig wieder selbst durch (technische) Ontologien beschrieben werden kann.
    In der Finanzwirtschaft mit ihren automatisierten Handelssystemen (auf Basis technischer Ontologien) wird beispielsweise inzwischen bei außergewöhnlichen Kursbewegungen der Börse der automatische Handel unterbrochen, so dass dann auf pragmatisch-natürlichsprachliche Weise nach den Gründen für die Ausschläge gesucht werden kann. Aus Sicht der technischen Ontologien wäre eine solche Unterbrechung des Computerhandels (zur Beruhigung der Märkte) nicht zwingend erforderlich, aber sie ist sehr sinnvoll aus einer außerhalb der technischen Ontologie stehenden Perspektive, die alleine nach Sinn und Bedeutung stabiler Kursverläufe zu fragen imstande ist. Der hier sich abzeichnende ,pragmatic turn' beim Einsatz technischer Ontologien ist auch in vielfältiger Weise in Trends wie z.B. Folksonomies, Sozialen Netzwerken und Open-SourceEntwicklergruppen zu erkennen. Diese Gemeinschaften zeichnen sich dadurch aus, dass sie zwar (technische) Ontologien einsetzen, diese jedoch in intensive soziale Austauschprozesse einbinden, in denen die formalen Wissensrepräsentationen mit situativer Bedeutung und Sinn versehen und angereichert werden. Dieser Trend zu ,weicheren' Formen der Nutzung von (technischen) Ontologien scheint nach aktuellem Wissensstand auf jeden Fall in der Praxis erfolgversprechender als die anfänglichen Hoffnungen des Semantic Web oder vollständiger (technischer) Ontologien - ganz abgesehen vom laufenden Pflegeaufwand 'vollständiger' technischer Ontologien.
    In diesem Sinne könnte auch Wissensaustausch und Wissensmanagement in Organisationen auf Basis (technischer) Ontologien eine neue Bedeutung erhalten im Sinne einer gezielten Ermöglichung sozialer Austauschprozesse unter Nutzung formaler Wissensrepräsentationen statt der technologiezentrierten Sichtweise, wonach bereits das Wissensrepräsentationssystem mit Wissensaustausch gleichzusetzen wäre. Letztlich haben die in (formalen) Wissensrepräsentationssystemen dargestellten technischen Ontologien alleine nämlich keine tiefere Bedeutung und auch keinen Sinn. Beides entsteht erst durch eine entsprechende Einbettung und Interpretation dieser Repräsentationen in konkreten lebensweltlichen Zusammenhängen. Und was die Menschen in diesem Interpretations-und Rekontextualisierungsprozess dann aus den zeichenvermittelten technischen Ontologien machen, ist glücklicherweise eine Frage, die sich einer vollständigen Behandlung und Abbildung in technischen Ontologien entzieht."
    Source
    http://www.cba.neu.edu/uploadedFiles/Site_Sections/OLKC_2010/Program_Overview/Parallel_Sessions/180_Wyssusek_Abstract_Ontologies%20in%20Knowledge%20Management%281%29.pdf
  7. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.01
    0.008021829 = product of:
      0.060965896 = sum of:
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.0033329297 = product of:
          0.0066658594 = sum of:
            0.0066658594 = weight(_text_:4 in 4658) [ClassicSimilarity], result of:
              0.0066658594 = score(doc=4658,freq=4.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.14840537 = fieldWeight in 4658, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4658)
          0.5 = coord(1/2)
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.13157895 = coord(5/38)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
    Content
    Zum Erlangen des akademischen Grades "Master of Engineering" (M.Eng.) im Studiengang Geoinformatik Vgl.: http://digibib.hs-nb.de/file/dbhsnb_derivate_0000000780/Masterarbeit-Pfeiffer-2010.pdf Vgl. auch: urn:nbn:de:gbv:519-thesis2010-0139-4
  8. Baumer, C.; Reichenberger, K.: Business Semantics - Praxis und Perspektiven (2006) 0.01
    0.008005872 = product of:
      0.07605579 = sum of:
        0.019013947 = weight(_text_:und in 6020) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6020,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6020, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6020)
        0.019013947 = weight(_text_:und in 6020) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6020,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6020, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6020)
        0.019013947 = weight(_text_:und in 6020) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6020,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6020, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6020)
        0.019013947 = weight(_text_:und in 6020) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6020,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6020, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6020)
      0.10526316 = coord(4/38)
    
    Abstract
    Der Artikel führt in semantische Technologien ein und gewährt Einblick in unterschiedliche Entwicklungsrichtungen. Insbesondere werden Business Semantics vorgestellt und vom Semantic Web abgegrenzt. Die Stärken von Business Semantics werden speziell an den Praxisbeispielen des Knowledge Portals und dem Projekt "Knowledge Base" der Wienerberger AG veranschaulicht. So werden die Anforderungen - was brauchen Anwendungen in Unternehmen heute - und die Leistungsfähigkeit von Systemen - was bieten Business Semantics - konkretisiert und gegenübergestellt.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.359-366
  9. Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006) 0.01
    0.008005872 = product of:
      0.07605579 = sum of:
        0.019013947 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6023,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.019013947 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6023,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.019013947 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6023,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.019013947 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.019013947 = score(doc=6023,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
      0.10526316 = coord(4/38)
    
    Abstract
    Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314
  10. Rahmstorf, G.: Strukturierung von inhaltlichen Daten : Topic Maps und Concepto (2004) 0.01
    0.007943081 = product of:
      0.075459264 = sum of:
        0.018864816 = weight(_text_:und in 3143) [ClassicSimilarity], result of:
          0.018864816 = score(doc=3143,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51424015 = fieldWeight in 3143, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
        0.018864816 = weight(_text_:und in 3143) [ClassicSimilarity], result of:
          0.018864816 = score(doc=3143,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51424015 = fieldWeight in 3143, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
        0.018864816 = weight(_text_:und in 3143) [ClassicSimilarity], result of:
          0.018864816 = score(doc=3143,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51424015 = fieldWeight in 3143, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
        0.018864816 = weight(_text_:und in 3143) [ClassicSimilarity], result of:
          0.018864816 = score(doc=3143,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51424015 = fieldWeight in 3143, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
      0.10526316 = coord(4/38)
    
    Abstract
    Topic Maps auf der einen Seite und das Programm Concepto auf der anderen Seite werden beschrieben. Mt Topic Maps können Wortnetze und einfache Satzstrukturen dargestellt werden. Concepto dient zur Erfassung, Bearbeitung und Visualisierung von Wortschatz und Strukturen. Es unterstützt ein Wortmodell, bei dem die verschiedenen Lesarten eines Wortes erfasst und einfachen, formalsprachlichen Begriffen zugewiesen werden können. Die Funktionen beider Systeme werden verglichen. Es wird dargestellt, was an Topic Maps und an Concepto ergänzt werden müsste, wenn beide Systeme einen kompatiblen, wechselseitigen Datenaustausch zulassen sollen. Diese Erweiterungen würden die Anwendbarkeit der Systeme noch interessanter machen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  11. Ulrich, W.: Simple Knowledge Organisation System (2007) 0.01
    0.007861611 = product of:
      0.074685305 = sum of:
        0.018671326 = weight(_text_:und in 105) [ClassicSimilarity], result of:
          0.018671326 = score(doc=105,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 105, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=105)
        0.018671326 = weight(_text_:und in 105) [ClassicSimilarity], result of:
          0.018671326 = score(doc=105,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 105, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=105)
        0.018671326 = weight(_text_:und in 105) [ClassicSimilarity], result of:
          0.018671326 = score(doc=105,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 105, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=105)
        0.018671326 = weight(_text_:und in 105) [ClassicSimilarity], result of:
          0.018671326 = score(doc=105,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 105, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=105)
      0.10526316 = coord(4/38)
    
    Content
    Semantic Web - Taxonomie und Thesaurus - SKOS - Historie - Klassen und Eigenschaften - Beispiele - Generierung - automatisiert - per Folksonomie - Fazit und Ausblick
  12. Semenova, E.; Stricker, M.: ¬Eine Ontologie der Wissenschaftsdisziplinen : Entwicklung eines Instrumentariums für die Wissenskommunikation (2007) 0.01
    0.0077185263 = product of:
      0.058660798 = sum of:
        0.013474869 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1889,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.013474869 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1889,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.0047613285 = product of:
          0.009522657 = sum of:
            0.009522657 = weight(_text_:4 in 1889) [ClassicSimilarity], result of:
              0.009522657 = score(doc=1889,freq=4.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.21200769 = fieldWeight in 1889, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1889)
          0.5 = coord(1/2)
        0.013474869 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1889,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.013474869 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1889,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
      0.13157895 = coord(5/38)
    
    Abstract
    Interdisziplinarität als Kennzeichen des modernen Wissenschaftslebens setzt in Forschung und Lehre eine effiziente Wissenschaftskommunikation voraus, bei der sich die Partner über eine gemeinsame Sprache verständigen können. Klassifikationen und Thesauri übernehmen dabei eine wichtige Rolle. Zu beobachten ist, dass vorhandene Instrumente in ihrem Gefüge zu inflexibel sind, um die komplex ineinander verwobenen Felder der Wissenschaft in ihrer dynamischen Entwicklung adäquat abzubilden, zur (Selbst-)Verständigung über das Wesen und Struktur der Wissenschaftslandschaft sowie zum erfolgreichen Wissensaustausch beizutragen. Ontologien erschließen neue Wege zur Lösung dieser Aufgaben. In einigen Einzelwissenschaften und Teilgebieten ist diesbezüglich eine rege Tätigkeit zu beobachten, es fehlt allerdings noch ein fachübergreifendes Instrumentarium. Im Vortrag wird das von der DFG geförderte Projekt "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" vorgestellt. Es gilt, die oben beschriebene Lücke zu schließen und eine umfassende Ontologie für Erschließung, Recherche und Datenaustausch bei der Wissenschaftskommunikation zu erstellen. Diese Ontologie soll dazu beitragen, eine effiziente Wissenskommunikation, besonders bei interdisziplinären Projekten, zu unterstützen, verfügbare Ressourcen auffindbar zu machen und mögliche Knotenstellen künftiger Kooperationen zu verdeutlichen. Ausgehend von der Kritik an vorhandenen Instrumenten wird derzeit ein Begriffsmodell für die Beschreibung von Wissenschaftsdisziplinen, ihrer zentralen Facetten sowie ihrer interdisziplinären Beziehungen untereinander entwickelt. Das Modell, inspiriert vom Topic Maps Paradigma, basiert auf einer überschaubaren Menge zentraler Konzepte sowie prinzipiell inverser Beziehungen. Eine entsprechende Ontologie wird in unterschiedlichen (technischen) Beschreibungsformaten formuliert werden können. Dies bildet den Grundstein für den Fokus des Projekts, flexible, verteilte, benutzer- wie pflegefreundliche technische Umsetzungen zu entwickeln und mit Kooperationspartnern zu implementieren.
    Series
    Konferenz der Zentralbibliothek ... ; 4)(Schriften des Forschungszentrums Jülich : Reihe Bibliothek ; Bd. 18
    Source
    Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel]
  13. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.01
    0.0077185263 = product of:
      0.058660798 = sum of:
        0.013474869 = weight(_text_:und in 4425) [ClassicSimilarity], result of:
          0.013474869 = score(doc=4425,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 4425, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
        0.013474869 = weight(_text_:und in 4425) [ClassicSimilarity], result of:
          0.013474869 = score(doc=4425,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 4425, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
        0.0047613285 = product of:
          0.009522657 = sum of:
            0.009522657 = weight(_text_:4 in 4425) [ClassicSimilarity], result of:
              0.009522657 = score(doc=4425,freq=4.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.21200769 = fieldWeight in 4425, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4425)
          0.5 = coord(1/2)
        0.013474869 = weight(_text_:und in 4425) [ClassicSimilarity], result of:
          0.013474869 = score(doc=4425,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 4425, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
        0.013474869 = weight(_text_:und in 4425) [ClassicSimilarity], result of:
          0.013474869 = score(doc=4425,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 4425, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.13157895 = coord(5/38)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
    Date
    4. 4.2011 13:32:50
    4. 4.2011 13:57:26
  14. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.007670006 = product of:
      0.058292042 = sum of:
        0.012704228 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.012704228 = score(doc=5576,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.012704228 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.012704228 = score(doc=5576,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.012704228 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.012704228 = score(doc=5576,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.012704228 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.012704228 = score(doc=5576,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.0074751303 = product of:
          0.02242539 = sum of:
            0.02242539 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.02242539 = score(doc=5576,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  15. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.007670006 = product of:
      0.058292042 = sum of:
        0.012704228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3406,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.012704228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3406,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.012704228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3406,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.012704228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3406,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.0074751303 = product of:
          0.02242539 = sum of:
            0.02242539 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.02242539 = score(doc=3406,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Content
    Diplomarbeit, Freie Universität Berlin / Fachbereich Erziehungswissenschaft und Psychologie / Diplomstudiengang Psychologie; vgl.: http://heikohaller.de/literatur/diplomarbeit/ bzw. www.heikohaller.de/toolvergleich/.
    Date
    30. 5.2010 16:22:35
    Imprint
    Berlin : Freie Universität / Fachbereich Erziehungswissenschaft und Psychologie
  16. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.01
    0.007583821 = product of:
      0.05763704 = sum of:
        0.013474869 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1670,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.013474869 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1670,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.013474869 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1670,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.013474869 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.013474869 = score(doc=1670,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.0037375651 = product of:
          0.011212695 = sum of:
            0.011212695 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.011212695 = score(doc=1670,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Hesse, W.: Informationsbegriff in Natur- und Kulturwissenschaften : Vorlesung/Seminar im WS 2004/05 (2004) 0.01
    0.0075724274 = product of:
      0.057550445 = sum of:
        0.012704228 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3058,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
        0.012704228 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3058,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
        0.006733535 = product of:
          0.01346707 = sum of:
            0.01346707 = weight(_text_:4 in 3058) [ClassicSimilarity], result of:
              0.01346707 = score(doc=3058,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.29982415 = fieldWeight in 3058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3058)
          0.5 = coord(1/2)
        0.012704228 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3058,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
        0.012704228 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
          0.012704228 = score(doc=3058,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34630734 = fieldWeight in 3058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
      0.13157895 = coord(5/38)
    
    Abstract
    Enthält eine Darstellung des semiotischen Tetraeders und das Konzept der FRISCO-Gruppe
    Content
    1 - Die Rolle der Sprache 2 - Semiotik, Semiotische Dreiecke 3 - FRISCO-Ansatz 4 - Semiotisch verankerter Informationsbegriff 5 - Informationssysteme 6 - Schlussbetrachtung
  18. Held, C.; Cress, U.: Social Tagging aus kognitionspsychologischer Sicht (2008) 0.01
    0.0074888086 = product of:
      0.07114368 = sum of:
        0.01778592 = weight(_text_:und in 2885) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2885,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2885, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2885)
        0.01778592 = weight(_text_:und in 2885) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2885,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2885, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2885)
        0.01778592 = weight(_text_:und in 2885) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2885,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2885, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2885)
        0.01778592 = weight(_text_:und in 2885) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2885,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2885, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2885)
      0.10526316 = coord(4/38)
    
    Abstract
    Der vorliegende Artikel beschreibt Social-Tagging-Systeme aus theoretisch-kognitionspsychologischer Perspektive und zeigt einige Parallelen und Analogien zwischen Social Tagging und der individuellen kognitiven bedeutungsbezogenen Wissensrepräsentation auf. Zuerst werden wesentliche Aspekte von Social Tagging vorgestellt, die für eine psychologische Betrachtungsweise von Bedeutung sind. Danach werden Modelle und empirische Befunde der Kognitionswissenschaften bezüglich der Speicherung und des Abrufs von Inhalten des Langzeitgedächtnisses beschrieben. Als Drittes werden Parallelen und Unterschiede zwischen Social Tagging und der internen Wissensrepräsentation erläutert und die Möglichkeit von individuellen Lernprozessen durch Social-Tagging-Systeme aufgezeigt.
  19. Schöndorf, P.: Nicht-konventionelle Thesaurusrelationen als Orientierungshilfen für Indexierung und Recherche: Analyse ausgewählter Beispiele (1988) 0.01
    0.0074888086 = product of:
      0.07114368 = sum of:
        0.01778592 = weight(_text_:und in 2311) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2311,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2311, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2311)
        0.01778592 = weight(_text_:und in 2311) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2311,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2311, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2311)
        0.01778592 = weight(_text_:und in 2311) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2311,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2311, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2311)
        0.01778592 = weight(_text_:und in 2311) [ClassicSimilarity], result of:
          0.01778592 = score(doc=2311,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 2311, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2311)
      0.10526316 = coord(4/38)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.01
    0.007430656 = product of:
      0.056472983 = sum of:
        0.013444892 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.013444892 = score(doc=3359,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.013444892 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.013444892 = score(doc=3359,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 3359) [ClassicSimilarity], result of:
              0.005386828 = score(doc=3359,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 3359, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3359)
          0.5 = coord(1/2)
        0.013444892 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.013444892 = score(doc=3359,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.013444892 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.013444892 = score(doc=3359,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.13157895 = coord(5/38)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.

Years

Types

  • a 71
  • el 26
  • x 20
  • m 9
  • r 7
  • s 2
  • n 1
  • p 1
  • More… Less…