Search (85 results, page 1 of 5)

  • × theme_ss:"Wissensrepräsentation"
  1. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.31
    0.30721176 = product of:
      0.71682745 = sum of:
        0.04480172 = product of:
          0.13440515 = sum of:
            0.13440515 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.13440515 = score(doc=400,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.13440515 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.13440515 = score(doc=400,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.13440515 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.13440515 = score(doc=400,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.13440515 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.13440515 = score(doc=400,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.13440515 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.13440515 = score(doc=400,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.13440515 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.13440515 = score(doc=400,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.28
    0.2843399 = product of:
      0.6634598 = sum of:
        0.029867813 = product of:
          0.08960344 = sum of:
            0.08960344 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.08960344 = score(doc=5820,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.42857143 = coord(6/14)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.20
    0.20480786 = product of:
      0.477885 = sum of:
        0.029867813 = product of:
          0.08960344 = sum of:
            0.08960344 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.08960344 = score(doc=701,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  4. Börner, K.: Atlas of knowledge : anyone can map (2015) 0.01
    0.010874524 = product of:
      0.076121666 = sum of:
        0.059907187 = weight(_text_:daten in 3355) [ClassicSimilarity], result of:
          0.059907187 = score(doc=3355,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.44620997 = fieldWeight in 3355, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=3355)
        0.016214479 = product of:
          0.032428958 = sum of:
            0.032428958 = weight(_text_:22 in 3355) [ClassicSimilarity], result of:
              0.032428958 = score(doc=3355,freq=4.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.32829654 = fieldWeight in 3355, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3355)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Date
    22. 1.2017 16:54:03
    22. 1.2017 17:10:56
    RSWK
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
    Subject
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
  5. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.01
    0.009997973 = product of:
      0.06998581 = sum of:
        0.05469865 = weight(_text_:media in 318) [ClassicSimilarity], result of:
          0.05469865 = score(doc=318,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.41399965 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0625 = fieldNorm(doc=318)
        0.015287156 = product of:
          0.030574312 = sum of:
            0.030574312 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.030574312 = score(doc=318,freq=2.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    In der Session "Knowledge Representation" auf der ISI 2021 wurden unter der Moderation von Jürgen Reischer (Uni Regensburg) drei Projekte vorgestellt, in denen Knowledge Representation mit RDF umgesetzt wird. Die Domänen sind erfreulich unterschiedlich, die gemeinsame Klammer indes ist die Absicht, den Zugang zu Forschungsdaten zu verbessern: - Japanese Visual Media Graph - Taxonomy of Digital Research Activities in the Humanities - Forschungsdaten im konzeptuellen Modell von FRBR
    Date
    22. 5.2021 12:43:05
  6. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.01
    0.007689449 = product of:
      0.053826142 = sum of:
        0.042360775 = weight(_text_:daten in 4011) [ClassicSimilarity], result of:
          0.042360775 = score(doc=4011,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.31551808 = fieldWeight in 4011, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.011465367 = product of:
          0.022930734 = sum of:
            0.022930734 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
              0.022930734 = score(doc=4011,freq=2.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.23214069 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  7. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.01
    0.0069487304 = product of:
      0.04864111 = sum of:
        0.02393066 = weight(_text_:media in 6027) [ClassicSimilarity], result of:
          0.02393066 = score(doc=6027,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.18112485 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
        0.024710452 = weight(_text_:daten in 6027) [ClassicSimilarity], result of:
          0.024710452 = score(doc=6027,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.18405221 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
      0.14285715 = coord(2/14)
    
    Content
    Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
  8. Becker, H.-G.: MODS2FRBRoo : Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen (2010) 0.01
    0.0061142524 = product of:
      0.08559953 = sum of:
        0.08559953 = weight(_text_:daten in 4265) [ClassicSimilarity], result of:
          0.08559953 = score(doc=4265,freq=6.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.6375756 = fieldWeight in 4265, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4265)
      0.071428575 = coord(1/14)
    
    Abstract
    Es wird ein Verfahren vorgestellt, mit dem bereits existierende bibliografische Daten in die CIDOC CRM/FRBRoo-Umgebung übertragen werden können. Es handelt sich dabei um einen mehrstufigen XSLT-Prozess, der im MODS-Format vorliegende bibliografische Daten in ein FRBRoo-konformes RDF umwandelt. Dazu werden die unterschiedlichen Publikationstypen in FRBRoo identifiziert und modelliert. Für die Abbildung der einzelnen bibliografischen Kategorien aus dem verwendeten Austauschformat auf die FRBRoo-Klassen wird auf Konzepte von RDA zurückgegriffen.
  9. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.0057054465 = product of:
      0.079876244 = sum of:
        0.079876244 = weight(_text_:daten in 2568) [ClassicSimilarity], result of:
          0.079876244 = score(doc=2568,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.5949466 = fieldWeight in 2568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
  10. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.01
    0.005638189 = product of:
      0.07893465 = sum of:
        0.07893465 = weight(_text_:daten in 3742) [ClassicSimilarity], result of:
          0.07893465 = score(doc=3742,freq=10.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.58793324 = fieldWeight in 3742, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.071428575 = coord(1/14)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  11. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.00
    0.00403436 = product of:
      0.056481034 = sum of:
        0.056481034 = weight(_text_:daten in 3898) [ClassicSimilarity], result of:
          0.056481034 = score(doc=3898,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.42069077 = fieldWeight in 3898, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
      0.071428575 = coord(1/14)
    
    Abstract
    Die vorliegende Studie untersucht den Einsatz und den Wirkungsgrad von semantischen Technologien in den betrieblichen Informationssystemen. Einleitend wird kurz in die Semantic Web Thematik und die Hauptanwendungsgebiete semantischer Technologien sowie die damit verbundenen Informationsprozesse eingeführt, um dann anschließend anhand von empirischen Daten den Aufwand, den Nutzen und die Effekte von semantischen Anwendungen beschreibbar zu machen. Dabei versucht die Studie auch die Lessons learned der Unternehmen zu vermitteln, die bereits semantische Technologien einsetzen.
  12. Finke, M.; Risch, J.: "Match Me If You Can" : Sammeln und semantisches Aufbereiten von Fußballdaten (2017) 0.00
    0.0039070467 = product of:
      0.05469865 = sum of:
        0.05469865 = weight(_text_:media in 3723) [ClassicSimilarity], result of:
          0.05469865 = score(doc=3723,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.41399965 = fieldWeight in 3723, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0625 = fieldNorm(doc=3723)
      0.071428575 = coord(1/14)
    
    Abstract
    Interviews, Spielstatistiken oder Videoaufzeichnungen sind für Fußballfans zwar zahlreich im Internet verfügbar, aber auf viele verschiedene Websites verstreut. "Semantic Media Mining" verknüpft nun Fußballdaten aus unterschiedlichen Quellen, bereitet sie semantisch auf und führt sie auf einer einzigen Website zusammen. Dadurch dokumentieren und visualisieren wir mehr als 50 Jahre Fußballgeschichte mit über 500 Mannschaften und 40.000 Spielern der Champions League, sowie der 1. und 2. Bundesliga.
  13. Rahmstorf, G.: Strukturierung von inhaltlichen Daten : Topic Maps und Concepto (2004) 0.00
    0.0035300648 = product of:
      0.049420904 = sum of:
        0.049420904 = weight(_text_:daten in 3143) [ClassicSimilarity], result of:
          0.049420904 = score(doc=3143,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.36810443 = fieldWeight in 3143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3143)
      0.071428575 = coord(1/14)
    
  14. Reitbauer, A.: IT Konsolidierung und Informationsintegration (2006) 0.00
    0.0035300648 = product of:
      0.049420904 = sum of:
        0.049420904 = weight(_text_:daten in 5806) [ClassicSimilarity], result of:
          0.049420904 = score(doc=5806,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.36810443 = fieldWeight in 5806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5806)
      0.071428575 = coord(1/14)
    
    Abstract
    Dieser Artikel betrachtet das Problem steigender Komplexität in IT Systemen. Als wesentlicher Aspekt wird Interoperabilität zwischen Anwendungen dargestellt. Als Modell für die Vielschichtigkeit von Integrationszenarien wird ein Modell präsentiert. das Integration und deren Auswirkungen auf verschiedenen Ebenen darstellt. Semantische Technologien werden in Relation zu bestehenden Ansätzen, wie Entity Relationship Diagrammen und objektorientierter Modellierung, gesetzt. Ein konkretes Beispiel demonstriert die unterschiedlichen Modellierungsergebnisse. Als wesentliche Szenarien für die Verwendung von semantischen Technologien werden Daten- und Prozessintegration dargestellt. Hierbei werden zuerst Probleme mit bestehenden Technologien präsentiert. Anschließend folgt anhand von Beispielen die Demonstration, wie semantische Technologien helfen können, diese Probleme zu lösen.
  15. Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010) 0.00
    0.003493858 = product of:
      0.04891401 = sum of:
        0.04891401 = weight(_text_:daten in 4261) [ClassicSimilarity], result of:
          0.04891401 = score(doc=4261,freq=6.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.36432892 = fieldWeight in 4261, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
      0.071428575 = coord(1/14)
    
    Content
    Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
  16. Chaudhury, S.; Mallik, A.; Ghosh, H.: Multimedia ontology : representation and applications (2016) 0.00
    0.0034533741 = product of:
      0.048347235 = sum of:
        0.048347235 = weight(_text_:media in 2801) [ClassicSimilarity], result of:
          0.048347235 = score(doc=2801,freq=4.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.36592746 = fieldWeight in 2801, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2801)
      0.071428575 = coord(1/14)
    
    Abstract
    The book covers multimedia ontology in heritage preservation with intellectual explorations of various themes of Indian cultural heritage. The result of more than 15 years of collective research, Multimedia Ontology: Representation and Applications provides a theoretical foundation for understanding the nature of media data and the principles involved in its interpretation. The book presents a unified approach to recent advances in multimedia and explains how a multimedia ontology can fill the semantic gap between concepts and the media world. It relays real-life examples of implementations in different domains to illustrate how this gap can be filled. The book contains information that helps with building semantic, content-based search and retrieval engines and also with developing vertical application-specific search applications. It guides you in designing multimedia tools that aid in logical and conceptual organization of large amounts of multimedia data. As a practical demonstration, it showcases multimedia applications in cultural heritage preservation efforts and the creation of virtual museums. The book describes the limitations of existing ontology techniques in semantic multimedia data processing, as well as some open problems in the representations and applications of multimedia ontology. As an antidote, it introduces new ontology representation and reasoning schemes that overcome these limitations. The long, compiled efforts reflected in Multimedia Ontology: Representation and Applications are a signpost for new achievements and developments in efficiency and accessibility in the field.
  17. Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006) 0.00
    0.0034186658 = product of:
      0.04786132 = sum of:
        0.04786132 = weight(_text_:media in 5174) [ClassicSimilarity], result of:
          0.04786132 = score(doc=5174,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.3622497 = fieldWeight in 5174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5174)
      0.071428575 = coord(1/14)
    
    Source
    http://www.wim.uni-koeln.de/uploads/media/Tutorium_Informationsintegration_v32_2006-07-02_gesamt.pdf
  18. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.00
    0.0030571262 = product of:
      0.042799763 = sum of:
        0.042799763 = weight(_text_:daten in 4658) [ClassicSimilarity], result of:
          0.042799763 = score(doc=4658,freq=6.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.3187878 = fieldWeight in 4658, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.071428575 = coord(1/14)
    
    Abstract
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  19. Haase, P.; Tempich, C.: Wissensaustausch mit semantikbasierten Peer-to-Peer-Systemen (2006) 0.00
    0.0030257697 = product of:
      0.042360775 = sum of:
        0.042360775 = weight(_text_:daten in 6017) [ClassicSimilarity], result of:
          0.042360775 = score(doc=6017,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.31551808 = fieldWeight in 6017, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=6017)
      0.071428575 = coord(1/14)
    
    Abstract
    Der Austausch von Wissen kann in Peer-to-Peer-Systemen effizient gestaltet werden und hat damit ein großes Anwendungspotenzial innerhalb von Unternehmen und für virtuelle Organisationen im Allgemeinen. Dieser Beitrag konzentriert sich nicht auf Systeme die den Austausch unstrukturierten Daten (wie Multimediadaten) unterstützen, sondern auf Ansätze die den Austausch von semantischen Wissensstrukturen in Peer-to-Peer-Systemen unterstützen. Das Wissen auf den einzelnen Peers wird in solchen Systemen mit Hilfe einer Ontologie beschrieben. Insbesondere können in diesen Systemen die semantischen Wissensstrukturen dazu benutzt werden, Anfragen effektiver innerhalb des Netzwerkes zu verteilen und gleich gesinnte Nutzer zusammenzuführen. In diesem Zusammenhang präsentieren wir einen Algorithmus für das effektive Routing von Anfragen in selbstorganisierenden Peer-to-Peer-Systemen, welches proaktiv gesendete Werbungen und passiv aufgesammeltes Wissen kombiniert, um lokale Indizes von entfernten Peers aufzubauen. Der Ansatz wurde im Bibster-System prototypisch umgesetzt und in einer Fallstudie im Bereich bibliographischer Informationen evaluiert.
  20. Beßler, S.: Wissensrepräsentation musealer Bestände mittels semantischer Netze : Analyse und Annotation eines Teilbestands des Haus der Geschichte der BRD in Bonn (2010) 0.00
    0.0030257697 = product of:
      0.042360775 = sum of:
        0.042360775 = weight(_text_:daten in 4024) [ClassicSimilarity], result of:
          0.042360775 = score(doc=4024,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.31551808 = fieldWeight in 4024, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
      0.071428575 = coord(1/14)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Über ihre vielfältigen Relationen und Inferenzen unterstützen sie den Anwender und helfen Daten im Kontext zu präsentieren und zu erfassen. Die Relationen ermöglichen Suchanfragen die große Treffermengen produzieren zu verfeinern und so Treffermengen zu erreichen die möglichst genau das enthalten was gesucht wurde. Es wird, anhand eines Ausschnitts des Datenbestands des Haus der Geschichte der Bundesrepublik Deutschland in Bonn, aufgezeigt wie bestehende Datenbestände in semantische Netze überführt werden können und wie diese anschließend für das Retrieval eingesetzt werden können. Für die Modellierung des semantischen Netz wird die Open Source Software Protégé in den Versionen 3.4.4. und 4.1_beta eingesetzt, die Möglichkeiten des Retrieval werden anhand der Abfragesprachen DL Query und SPARQL sowie anhand der Software Ontology Browser und OntoGraf erläutert.

Authors

Years

Languages

  • e 55
  • d 29

Types

  • a 54
  • el 18
  • x 12
  • m 7
  • n 2
  • r 2
  • p 1
  • s 1
  • More… Less…