Search (1695 results, page 1 of 85)

  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.57
    0.56619364 = product of:
      1.1952976 = sum of:
        0.024274603 = weight(_text_:web in 2188) [ClassicSimilarity], result of:
          0.024274603 = score(doc=2188,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2884563 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.024274603 = weight(_text_:web in 2188) [ClassicSimilarity], result of:
          0.024274603 = score(doc=2188,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2884563 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.16382119 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.16382119 = score(doc=2188,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.47368422 = coord(9/19)
    
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  2. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.53
    0.52937496 = product of:
      1.2572656 = sum of:
        0.040955298 = product of:
          0.122865885 = sum of:
            0.122865885 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.122865885 = score(doc=484,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.1737586 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.1737586 = score(doc=484,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.42105263 = coord(8/19)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  3. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.38
    0.3793754 = product of:
      0.9010166 = sum of:
        0.040955298 = product of:
          0.122865885 = sum of:
            0.122865885 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.122865885 = score(doc=400,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.122865885 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.122865885 = score(doc=400,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.42105263 = coord(8/19)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  4. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.08
    0.079393394 = product of:
      0.3016949 = sum of:
        0.018205952 = weight(_text_:web in 4095) [ClassicSimilarity], result of:
          0.018205952 = score(doc=4095,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 4095, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4095)
        0.018205952 = weight(_text_:web in 4095) [ClassicSimilarity], result of:
          0.018205952 = score(doc=4095,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 4095, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4095)
        0.049841963 = weight(_text_:semantische in 4095) [ClassicSimilarity], result of:
          0.049841963 = score(doc=4095,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 4095, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=4095)
        0.20496002 = weight(_text_:ontologie in 4095) [ClassicSimilarity], result of:
          0.20496002 = score(doc=4095,freq=12.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            1.1360749 = fieldWeight in 4095, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.046875 = fieldNorm(doc=4095)
        0.010481017 = product of:
          0.020962033 = sum of:
            0.020962033 = weight(_text_:22 in 4095) [ClassicSimilarity], result of:
              0.020962033 = score(doc=4095,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.23214069 = fieldWeight in 4095, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4095)
          0.5 = coord(1/2)
      0.2631579 = coord(5/19)
    
    Abstract
    Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  5. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.06
    0.056878153 = product of:
      0.21613698 = sum of:
        0.025747105 = weight(_text_:web in 4011) [ClassicSimilarity], result of:
          0.025747105 = score(doc=4011,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3059541 = fieldWeight in 4011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.025747105 = weight(_text_:web in 4011) [ClassicSimilarity], result of:
          0.025747105 = score(doc=4011,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3059541 = fieldWeight in 4011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.07048718 = weight(_text_:semantische in 4011) [ClassicSimilarity], result of:
          0.07048718 = score(doc=4011,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.50622916 = fieldWeight in 4011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.08367458 = weight(_text_:ontologie in 4011) [ClassicSimilarity], result of:
          0.08367458 = score(doc=4011,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.46380067 = fieldWeight in 4011, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.046875 = fieldNorm(doc=4011)
        0.010481017 = product of:
          0.020962033 = sum of:
            0.020962033 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
              0.020962033 = score(doc=4011,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.23214069 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
      0.2631579 = coord(5/19)
    
    Abstract
    Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  6. Alvers, M.R.: Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed (2010) 0.05
    0.051770464 = product of:
      0.19672775 = sum of:
        0.012137301 = weight(_text_:web in 4262) [ClassicSimilarity], result of:
          0.012137301 = score(doc=4262,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.14422815 = fieldWeight in 4262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
        0.012137301 = weight(_text_:web in 4262) [ClassicSimilarity], result of:
          0.012137301 = score(doc=4262,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.14422815 = fieldWeight in 4262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
        0.046991456 = weight(_text_:semantische in 4262) [ClassicSimilarity], result of:
          0.046991456 = score(doc=4262,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.33748612 = fieldWeight in 4262, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
        0.055783052 = weight(_text_:ontologie in 4262) [ClassicSimilarity], result of:
          0.055783052 = score(doc=4262,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.30920044 = fieldWeight in 4262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
        0.06967866 = weight(_text_:suche in 4262) [ClassicSimilarity], result of:
          0.06967866 = score(doc=4262,freq=12.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.54084975 = fieldWeight in 4262, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
      0.2631579 = coord(5/19)
    
    Abstract
    Nie zuvor war der Zugriff auf Informationen so einfach und schnell wie heute. Die Suchmaschine Google ist dabei mit einem Marktanteil von 95 Prozent in Deutschland führend. Aber reicht der heutige Status Quo aus? Wir meinen nein - andere meinen ja. Die Verwendung von Stichworten für die Suche ist sehr begrenzt, nicht intelligent und der Algorithmus zum ranking der Suchergebnisse fragwürdig. Wir zeigen neue Wege der semantischen Suche mittels der Verwendung von Hintergrundwissen. Die (semi)automatische Generierung von Ontologien wird ebenfalls als zentraler Bestandteil einer universellen Wissensplattform vorgestellt und gezeigt, wie Anwender mit dieser Technologie signifikant Zeit sparen und deutlich relevantere Informationen finden.
    Content
    "Im Vortrag werden Aspekte der Suche nach Informationen und Antworten aus dem breiten Spektrum von der Suche nach einer Telefonnummer bis zur Frage nach dem "Sinn des Lebens" (deren Antwort auch im Vortrag leider nicht gegeben werden kann) angesprochen. Die Verwendung von Hintergrundwissen in Form von semantischen Begriffsnetzwerken, sogenannten Ontologien, hilft enorm, der Beantwortung von Fragen näher zu kommen. Sie garantieren Vollständigkeit der Suchergebnisse und schnelles Fokussieren auf Relevantes. Das bedeutungs-getriebene Einsortieren oder das Klassifizieren von Informationen aus Dokumenten oder von Internetinhalten, ermöglicht die Disambiguierung von Begriffen wie Salz und 01, " Cyclooxygenase Inhibitoren" - eher bekannt als Aspirin - oder das Auffinden aller Dokumente, die zum Thema CO2 - Sequestrierung gehören - also auch solcher, in den Begriff CO2 - Sequestrierung nicht direkt enthalten aber solche, die für das Thema relevant sind. Die Technologie hinter GoPubMed automatisiert schwierige Analysen, die normaler Weise von Wissenschaftlern getätigt werden. Dabei werden die notwendigen Informationen, wie sie von ausgefeilten Algorithmen ([DS05]) vorausgesagt wurden, mit einer deutlich höheren Genauigkeit bereitgestellt. Transinsights semantische Suchtechnologien wurde als erstes Beispiel der nächsten Generation der Suche entwickelt. Die Stärke liegt in der Fähigkeit, große Textkorpora (> 500 Millionen Dokumente) mit großen Ontologien (> 15 Millionen Konzepte) zu verknüpfen. In GoPubMed wird die Gene Ontology und MeSH verwendet, die zusammen mit einer Geo-Ontologie und allen Autoren ca. 15 Millionen Konzepte beinhalten.m"
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  7. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.05
    0.05095505 = product of:
      0.24203649 = sum of:
        0.036789242 = weight(_text_:web in 345) [ClassicSimilarity], result of:
          0.036789242 = score(doc=345,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43716836 = fieldWeight in 345, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.036789242 = weight(_text_:web in 345) [ClassicSimilarity], result of:
          0.036789242 = score(doc=345,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43716836 = fieldWeight in 345, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.08223505 = weight(_text_:semantische in 345) [ClassicSimilarity], result of:
          0.08223505 = score(doc=345,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.5906007 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.08622295 = weight(_text_:suche in 345) [ClassicSimilarity], result of:
          0.08622295 = score(doc=345,freq=6.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.6692675 = fieldWeight in 345, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
      0.21052632 = coord(4/19)
    
    Abstract
    In diesem Kapitel wird ein Überblick über bestehende semantische Suchmaschinen gegeben. Insgesamt werden 95 solcher Suchdienste identifiziert und im Rahmen einer Inhaltsanalyse verglichen. Es kann festgestellt werden, dass die Semantische Suche sich wesentlich von den im Rahmen des Semantic Web propagierten Technologien unterscheidet und Semantik in den betrachteten Suchmaschinen weiter zu fassen ist. Die betrachteten Suchmaschinen werden in ein Stufenmodell, welches nach dem Grad der Semantik unterscheidet, eingeordnet. Das Kapitel schließt mit 8 Thesen zum aktuellen Stand der semantischen Suche.
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
    Theme
    Semantic Web
  8. Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010) 0.05
    0.04885842 = product of:
      0.18566199 = sum of:
        0.012137301 = weight(_text_:web in 4261) [ClassicSimilarity], result of:
          0.012137301 = score(doc=4261,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.14422815 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.012137301 = weight(_text_:web in 4261) [ClassicSimilarity], result of:
          0.012137301 = score(doc=4261,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.14422815 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.033227976 = weight(_text_:semantische in 4261) [ClassicSimilarity], result of:
          0.033227976 = score(doc=4261,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.23863871 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.07888915 = weight(_text_:ontologie in 4261) [ClassicSimilarity], result of:
          0.07888915 = score(doc=4261,freq=4.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.43727544 = fieldWeight in 4261, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.049270257 = weight(_text_:suche in 4261) [ClassicSimilarity], result of:
          0.049270257 = score(doc=4261,freq=6.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.38243857 = fieldWeight in 4261, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
      0.2631579 = coord(5/19)
    
    Abstract
    RODIN (ROue D'INformation) ist ein Projekt, das einen alternativen Ansatz in der Erstellung von Informationsportalen verfolgt, indem es dem Benutzer ermöglicht, selbständig oder in Zusammenarbeit mit einem Informationsspezialisten heterogene Informationsquellen, die für ihn eine Relevanz besitzen, als Aggregat miteinander zu verbinden. Das System gewährleistet eine simultane Suche in allen Komponenten des Aggregats und ermöglicht die Suchverfeinerung durch Anbindung an bibliografische und enzyklopädische Ontologien.
    Content
    "Im Projekt RODIN (Roue d'information) wird die Realisierung einer alternativen Portalidee im Rahmen der E-lib.ch-Initiative (www.e-lib.ch) angestrebt. Dahinter verbirgt sich die Idee eines personalisierbaren Informationsportals zur Aggregation heterogener Datenquellen unter Verwendung von SemanticWeb-Technologie. Das allgemeine wissenschaftliche Interesse von RODIN besteht darin, zu überprüfen, inwieweit bibliografische Ontologien als Bestandteil des SemanticWeb für die Informationssuche gewinnbringend eingesetzt werden können. Den Benutzern werden hierbei unterschiedliche Funktionalitäten zur Verfügung gestellt. So können sie zunächst aus unterschiedlichen Informationsquellen jene auswählen, die für ihre Recherche von Relevanz sind und diese in Form von Widgets auf der Startseite des Informationsportals zusammenstellen. Konkret handelt es sich hierbei um Informationsquellen, die im Kontext von E-lib.ch bereitgestellt werden (bspw. Swissbib.ch, Rero-Doc) sowie um allgemeine Webressourcen (etwa Delicious oder Google-Books). Anschließend besteht die Möglichkeit, simultan über alle spezifizierten Quellen eine parallele Suche anzustoßen und - nach Beendigung dieser Metasuche - die Ergebnisse zu verfeinern.
    Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  9. Hennicke, S.: Linked data und semantische Suchfunktionalitäten in Europeana (2013) 0.05
    0.046430882 = product of:
      0.2205467 = sum of:
        0.024274603 = weight(_text_:web in 947) [ClassicSimilarity], result of:
          0.024274603 = score(doc=947,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2884563 = fieldWeight in 947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.024274603 = weight(_text_:web in 947) [ClassicSimilarity], result of:
          0.024274603 = score(doc=947,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2884563 = fieldWeight in 947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.11510509 = weight(_text_:semantische in 947) [ClassicSimilarity], result of:
          0.11510509 = score(doc=947,freq=6.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.8266688 = fieldWeight in 947, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.056892388 = weight(_text_:suche in 947) [ClassicSimilarity], result of:
          0.056892388 = score(doc=947,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.441602 = fieldWeight in 947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
      0.21052632 = coord(4/19)
    
    Abstract
    Dieser Beitrag berichtet von Arbeiten, die im Projekt Europeana zu Linked Data und semantischer Suchfunktionalität durchgeführt wurden und basiert auf einem Vortrag vom 23.9.2010 auf der ODOK 2010. Die geplante und auf Technologien aus dem Bereich des Semantic Web basierende Informationsarchitektur von Europeana wird skizziert. Auf diese Informationsarchitektur setzen semantische Funktionalitäten auf die als zukunftsweisende Suchfunktionalitäten in Europeana implementiert werden sollen. Anhand einiger konkreter Beispiele wird in einem zweiten Teil das Grundprinzip einer möglichen semantischen Suche in Europeana dargestellt.
    Theme
    Semantische Interoperabilität
  10. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.04
    0.04326073 = product of:
      0.16439077 = sum of:
        0.018205952 = weight(_text_:web in 4379) [ClassicSimilarity], result of:
          0.018205952 = score(doc=4379,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.018205952 = weight(_text_:web in 4379) [ClassicSimilarity], result of:
          0.018205952 = score(doc=4379,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.07048718 = weight(_text_:semantische in 4379) [ClassicSimilarity], result of:
          0.07048718 = score(doc=4379,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.50622916 = fieldWeight in 4379, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.042669293 = weight(_text_:suche in 4379) [ClassicSimilarity], result of:
          0.042669293 = score(doc=4379,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.3312015 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.014822397 = product of:
          0.029644795 = sum of:
            0.029644795 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.029644795 = score(doc=4379,freq=4.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.2631579 = coord(5/19)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Theme
    Semantische Interoperabilität
  11. Leissing, U.; Rädler, K.; Hauer, M.: Query-Expansion durch Fachthesauri : Erfahrungsbericht zu dandelon.com, Vorarlberger Parlamentsinformationssystem und vorarlberg.at (2010) 0.04
    0.042961627 = product of:
      0.20406772 = sum of:
        0.049841963 = weight(_text_:semantische in 3728) [ClassicSimilarity], result of:
          0.049841963 = score(doc=3728,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 3728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=3728)
        0.042669293 = weight(_text_:suche in 3728) [ClassicSimilarity], result of:
          0.042669293 = score(doc=3728,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.3312015 = fieldWeight in 3728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=3728)
        0.101075456 = weight(_text_:navigieren in 3728) [ClassicSimilarity], result of:
          0.101075456 = score(doc=3728,freq=2.0), product of:
            0.19828427 = queryWeight, product of:
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.025786186 = queryNorm
            0.50975025 = fieldWeight in 3728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.046875 = fieldNorm(doc=3728)
        0.010481017 = product of:
          0.020962033 = sum of:
            0.020962033 = weight(_text_:22 in 3728) [ClassicSimilarity], result of:
              0.020962033 = score(doc=3728,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.23214069 = fieldWeight in 3728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3728)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Abstract
    Die Kombination von gleichzeitig mehreren oder vielen intellektuell konstruierten Thesauri und maschineller Indexierung der Texte führt zu einer umfassenderen und spezifischeren Beschreibung von Dokumenten als die intellektuelle Klassifizierung oder die Indexierung allein. Durch die Expansion der Suchfrage um Thesauruseinträge wird der recall deutlich erhöht. Zugleich kann die intellektuelle Klassifizierung in überschaubaren Domänen dazu genutzt werden, baumartig in Dokumentenkollektionen zu navigieren oder die Suche erst in Teilbereichen der Klassifikation zu beginnen, um die precision zu erhöhen. Der Einsatz von Thesauruskollektionen wird an den Beispielen dandelon.com, Landtagsinformationssystem Vorarlberg und der Landeshomepage vorarlberg.at dargestellt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  12. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.04
    0.041386064 = product of:
      0.19658381 = sum of:
        0.031533636 = weight(_text_:web in 2782) [ClassicSimilarity], result of:
          0.031533636 = score(doc=2782,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.37471575 = fieldWeight in 2782, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.031533636 = weight(_text_:web in 2782) [ClassicSimilarity], result of:
          0.031533636 = score(doc=2782,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.37471575 = fieldWeight in 2782, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.049841963 = weight(_text_:semantische in 2782) [ClassicSimilarity], result of:
          0.049841963 = score(doc=2782,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.08367458 = weight(_text_:ontologie in 2782) [ClassicSimilarity], result of:
          0.08367458 = score(doc=2782,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.46380067 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
      0.21052632 = coord(4/19)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Theme
    Semantische Interoperabilität
  13. Dunsire, G.; Nicholson, D.: Signposting the crossroads : terminology Web services and classification-based interoperability (2010) 0.04
    0.04042781 = product of:
      0.15362568 = sum of:
        0.02627803 = weight(_text_:web in 4066) [ClassicSimilarity], result of:
          0.02627803 = score(doc=4066,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 4066, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4066)
        0.02627803 = weight(_text_:web in 4066) [ClassicSimilarity], result of:
          0.02627803 = score(doc=4066,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 4066, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4066)
        0.05080046 = weight(_text_:services in 4066) [ClassicSimilarity], result of:
          0.05080046 = score(doc=4066,freq=14.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.536602 = fieldWeight in 4066, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4066)
        0.041534968 = weight(_text_:semantische in 4066) [ClassicSimilarity], result of:
          0.041534968 = score(doc=4066,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.2982984 = fieldWeight in 4066, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4066)
        0.008734181 = product of:
          0.017468361 = sum of:
            0.017468361 = weight(_text_:22 in 4066) [ClassicSimilarity], result of:
              0.017468361 = score(doc=4066,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.19345059 = fieldWeight in 4066, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4066)
          0.5 = coord(1/2)
      0.2631579 = coord(5/19)
    
    Abstract
    The focus of this paper is the provision of terminology- and classification-based terminologies interoperability data via web services, initially using interoperability data based on the use of a Dewey Decimal Classification (DDC) spine, but with an aim to explore other possibilities in time, including the use of other spines. The High-Level Thesaurus Project (HILT) Phase IV developed pilot web services based on SRW/U, SOAP, and SKOS to deliver machine-readable terminology and crossterminology mappings data likely to be useful to information services wishing to enhance their subject search or browse services. It also developed an associated toolkit to help information services technical staff to embed HILT-related functionality within service interfaces. Several UK information services have created illustrative user interface enhancements using HILT functionality and these will demonstrate what is possible. HILT currently has the following subject schemes mounted and available: DDC, CAB, GCMD, HASSET, IPSV, LCSH, MeSH, NMR, SCAS, UNESCO, and AAT. It also has high level mappings between some of these schemes and DDC and some deeper pilot mappings available.
    Date
    6. 1.2011 19:22:48
    Theme
    Semantische Interoperabilität
  14. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.04
    0.03780043 = product of:
      0.17955205 = sum of:
        0.02124028 = weight(_text_:web in 4440) [ClassicSimilarity], result of:
          0.02124028 = score(doc=4440,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.25239927 = fieldWeight in 4440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.02124028 = weight(_text_:web in 4440) [ClassicSimilarity], result of:
          0.02124028 = score(doc=4440,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.25239927 = fieldWeight in 4440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.07121764 = weight(_text_:semantische in 4440) [ClassicSimilarity], result of:
          0.07121764 = score(doc=4440,freq=12.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.5114752 = fieldWeight in 4440, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.06585386 = weight(_text_:suche in 4440) [ClassicSimilarity], result of:
          0.06585386 = score(doc=4440,freq=14.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.51116145 = fieldWeight in 4440, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.21052632 = coord(4/19)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  15. Göbel, R.: Semantic Web & Linked Data für professionelle Informationsangebote : Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen (2010) 0.04
    0.036617003 = product of:
      0.17393076 = sum of:
        0.04070975 = weight(_text_:web in 4258) [ClassicSimilarity], result of:
          0.04070975 = score(doc=4258,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.48375595 = fieldWeight in 4258, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
        0.04070975 = weight(_text_:web in 4258) [ClassicSimilarity], result of:
          0.04070975 = score(doc=4258,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.48375595 = fieldWeight in 4258, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
        0.049841963 = weight(_text_:semantische in 4258) [ClassicSimilarity], result of:
          0.049841963 = score(doc=4258,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.35795808 = fieldWeight in 4258, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
        0.042669293 = weight(_text_:suche in 4258) [ClassicSimilarity], result of:
          0.042669293 = score(doc=4258,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.3312015 = fieldWeight in 4258, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
      0.21052632 = coord(4/19)
    
    Abstract
    Mit dem Hype um Web 3.0 und insbesondere den Schlagworten "Semantic Web" und "Linked Open Data" wird wieder einmal die Hoffnung geweckt mit einem Mausklick (bzw. Agenten) alle relevanten Informationen zu erhalten, die man braucht - also perfekte Vollständigkeit und Relevanz über das gesamte WWW hinweg. Informationsangebote müssen hierfür bestimmte strukturelle Voraussetzungen erfüllen. Der Vortrag geht unter praxisorientierten Gesichtspunkten den Fragen nach, welche Strukturen im Rahmen professioneller Wirtschaftsinformationsangebote bereits vorhanden sind und welcher weitere Nutzen erzeugt werden kann. Können sich daraus neue Chancen ergeben oder haben die Anbieter ihre Hausaufgaben für die semantische Suche und "connected data" bereits erledigt und können in Ruhe abwarten bis die hochfliegenden Hoffnungen in der Realität ankommen?
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
    Theme
    Semantic Web
  16. Dunsire, G.: Enhancing information services using machine-to-machine terminology services (2011) 0.04
    0.03615793 = product of:
      0.17175016 = sum of:
        0.02124028 = weight(_text_:web in 1805) [ClassicSimilarity], result of:
          0.02124028 = score(doc=1805,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.25239927 = fieldWeight in 1805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1805)
        0.02124028 = weight(_text_:web in 1805) [ClassicSimilarity], result of:
          0.02124028 = score(doc=1805,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.25239927 = fieldWeight in 1805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1805)
        0.07112064 = weight(_text_:services in 1805) [ClassicSimilarity], result of:
          0.07112064 = score(doc=1805,freq=14.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.7512428 = fieldWeight in 1805, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1805)
        0.058148954 = weight(_text_:semantische in 1805) [ClassicSimilarity], result of:
          0.058148954 = score(doc=1805,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.41761774 = fieldWeight in 1805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1805)
      0.21052632 = coord(4/19)
    
    Abstract
    This paper describes the basic concepts of terminology services and their role in information retrieval interfaces. Terminology services are consumed by other software applications using machine-to-machine protocols, rather than directly by end-users. An example of a terminology service is the pilot developed by the High Level Thesaurus (HILT) project which has successfully demonstrated its potential for enhancing subject retrieval in operational services. Examples of enhancements in three such services are given. The paper discusses the future development of terminology services in relation to the Semantic Web.
    Theme
    Semantische Interoperabilität
  17. Fensel, A.: Towards semantic APIs for research data services (2017) 0.04
    0.035619516 = product of:
      0.1691927 = sum of:
        0.03003829 = weight(_text_:web in 4439) [ClassicSimilarity], result of:
          0.03003829 = score(doc=4439,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.35694647 = fieldWeight in 4439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
        0.03003829 = weight(_text_:web in 4439) [ClassicSimilarity], result of:
          0.03003829 = score(doc=4439,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.35694647 = fieldWeight in 4439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
        0.026881078 = weight(_text_:services in 4439) [ClassicSimilarity], result of:
          0.026881078 = score(doc=4439,freq=2.0), product of:
            0.094670646 = queryWeight, product of:
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.025786186 = queryNorm
            0.28394312 = fieldWeight in 4439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6713707 = idf(docFreq=3057, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
        0.08223505 = weight(_text_:semantische in 4439) [ClassicSimilarity], result of:
          0.08223505 = score(doc=4439,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.5906007 = fieldWeight in 4439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
      0.21052632 = coord(4/19)
    
    Abstract
    Die schnelle Entwicklung der Internet- und Web-Technologie verändert den Stand der Technik in der Kommunikation von Wissen oder Forschungsergebnissen. Insbesondere werden semantische Technologien, verknüpfte und offene Daten zu entscheidenden Faktoren für einen erfolgreichen und effizienten Forschungsfortschritt. Zuerst definiere ich den Research Data Service (RDS) und diskutiere typische aktuelle und mögliche zukünftige Nutzungsszenarien mit RDS. Darüber hinaus bespreche ich den Stand der Technik in den Bereichen semantische Dienstleistung und Datenanmerkung und API-Konstruktion sowie infrastrukturelle Lösungen, die für die RDS-Realisierung anwendbar sind. Zum Schluss werden noch innovative Methoden der Online-Verbreitung, Förderung und effizienten Kommunikation der Forschung diskutiert.
    Theme
    Semantic Web
  18. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.04
    0.03534255 = product of:
      0.16787712 = sum of:
        0.02627803 = weight(_text_:web in 29) [ClassicSimilarity], result of:
          0.02627803 = score(doc=29,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 29, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.02627803 = weight(_text_:web in 29) [ClassicSimilarity], result of:
          0.02627803 = score(doc=29,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 29, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.041534968 = weight(_text_:semantische in 29) [ClassicSimilarity], result of:
          0.041534968 = score(doc=29,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.2982984 = fieldWeight in 29, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.073786095 = weight(_text_:modellierung in 29) [ClassicSimilarity], result of:
          0.073786095 = score(doc=29,freq=2.0), product of:
            0.18558519 = queryWeight, product of:
              7.1970778 = idf(docFreq=89, maxDocs=44218)
              0.025786186 = queryNorm
            0.3975861 = fieldWeight in 29, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1970778 = idf(docFreq=89, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
      0.21052632 = coord(4/19)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Theme
    Semantische Interoperabilität
  19. Söhler, M.: Schluss mit Schema F (2011) 0.03
    0.03391631 = product of:
      0.16110247 = sum of:
        0.027139833 = weight(_text_:web in 4439) [ClassicSimilarity], result of:
          0.027139833 = score(doc=4439,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.32250395 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.027139833 = weight(_text_:web in 4439) [ClassicSimilarity], result of:
          0.027139833 = score(doc=4439,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.32250395 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.057552546 = weight(_text_:semantische in 4439) [ClassicSimilarity], result of:
          0.057552546 = score(doc=4439,freq=6.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.4133344 = fieldWeight in 4439, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.049270257 = weight(_text_:suche in 4439) [ClassicSimilarity], result of:
          0.049270257 = score(doc=4439,freq=6.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.38243857 = fieldWeight in 4439, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.21052632 = coord(4/19)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  20. Werrmann, J.: Modellierung im Kontext : Ontologie-basiertes Information Retrieval (2011) 0.03
    0.032767992 = product of:
      0.31129593 = sum of:
        0.11805775 = weight(_text_:modellierung in 1141) [ClassicSimilarity], result of:
          0.11805775 = score(doc=1141,freq=2.0), product of:
            0.18558519 = queryWeight, product of:
              7.1970778 = idf(docFreq=89, maxDocs=44218)
              0.025786186 = queryNorm
            0.6361378 = fieldWeight in 1141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1970778 = idf(docFreq=89, maxDocs=44218)
              0.0625 = fieldNorm(doc=1141)
        0.19323817 = weight(_text_:ontologie in 1141) [ClassicSimilarity], result of:
          0.19323817 = score(doc=1141,freq=6.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            1.0711018 = fieldWeight in 1141, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0625 = fieldNorm(doc=1141)
      0.10526316 = coord(2/19)
    
    Abstract
    Heterogene Dokumentenlandschaften in Unternehmen bergen Wissen in Form von Verknüpfungspotentialen zwischen domänenspezifischen Dokumenten verschiedener Dokumentensysteme. Um dieses teils verborgene Wissen ableiten oder generieren zu können, entwickeln wir ein Entwurfsmuster für eine Ontologie, die eine homogene Zugriffsstruktur über einer heterogenen Dokumentenlandschaft etabliert. Weiterhin beschreiben wir ein Advanced Ontology-based Information Retrieval (AIRS) Verfahren, mit dessen Hilfe diese Meta-Ontologie zur Generierung von Anfragestrategien an Dokumentensysteme und für die Dokumentenrecherche in verschiedenen Anwendungskontexten genutzt werden können.

Languages

  • e 1301
  • d 381
  • i 3
  • f 2
  • a 1
  • no 1
  • More… Less…

Types

  • el 144
  • b 4
  • s 1
  • x 1
  • More… Less…

Themes

Classifications