Search (151 results, page 1 of 8)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.76
    0.7587508 = product of:
      1.8020332 = sum of:
        0.081910595 = product of:
          0.24573177 = sum of:
            0.24573177 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.24573177 = score(doc=973,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.24573177 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.24573177 = score(doc=973,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.42105263 = coord(8/19)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.50
    0.49650848 = product of:
      0.94336605 = sum of:
        0.036411904 = weight(_text_:web in 563) [ClassicSimilarity], result of:
          0.036411904 = score(doc=563,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43268442 = fieldWeight in 563, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.036411904 = weight(_text_:web in 563) [ClassicSimilarity], result of:
          0.036411904 = score(doc=563,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43268442 = fieldWeight in 563, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.122865885 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.122865885 = score(doc=563,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010481017 = product of:
          0.020962033 = sum of:
            0.020962033 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.020962033 = score(doc=563,freq=2.0), product of:
                0.09029883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025786186 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5263158 = coord(10/19)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.48
    0.47631472 = product of:
      0.8227254 = sum of:
        0.03412942 = product of:
          0.10238825 = sum of:
            0.10238825 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.10238825 = score(doc=1000,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.0151716275 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
          0.0151716275 = score(doc=1000,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.18028519 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0151716275 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
          0.0151716275 = score(doc=1000,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.18028519 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.041534968 = weight(_text_:semantische in 1000) [ClassicSimilarity], result of:
          0.041534968 = score(doc=1000,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.2982984 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10238825 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10238825 = score(doc=1000,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.57894737 = coord(11/19)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
    Theme
    Semantische Interoperabilität
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.42
    0.42284384 = product of:
      0.80340326 = sum of:
        0.03412942 = product of:
          0.10238825 = sum of:
            0.10238825 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.10238825 = score(doc=4997,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.02627803 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
          0.02627803 = score(doc=4997,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 4997, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.02627803 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
          0.02627803 = score(doc=4997,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 4997, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.10238825 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4997,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5263158 = coord(10/19)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.41
    0.4111529 = product of:
      0.78119045 = sum of:
        0.03412942 = product of:
          0.10238825 = sum of:
            0.10238825 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.10238825 = score(doc=4388,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.0151716275 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
          0.0151716275 = score(doc=4388,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.18028519 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.0151716275 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
          0.0151716275 = score(doc=4388,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.18028519 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10238825 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10238825 = score(doc=4388,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5263158 = coord(10/19)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.35
    0.35291666 = product of:
      0.838177 = sum of:
        0.027303532 = product of:
          0.081910595 = sum of:
            0.081910595 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.081910595 = score(doc=5820,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.11583907 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.11583907 = score(doc=5820,freq=4.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.42105263 = coord(8/19)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  7. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.33
    0.33421433 = product of:
      0.6350072 = sum of:
        0.027303532 = product of:
          0.081910595 = sum of:
            0.081910595 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.081910595 = score(doc=701,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.017164737 = weight(_text_:web in 701) [ClassicSimilarity], result of:
          0.017164737 = score(doc=701,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2039694 = fieldWeight in 701, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.017164737 = weight(_text_:web in 701) [ClassicSimilarity], result of:
          0.017164737 = score(doc=701,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2039694 = fieldWeight in 701, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.081910595 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.081910595 = score(doc=701,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5263158 = coord(10/19)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Theme
    Semantic Web
  8. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.32
    0.3161462 = product of:
      0.7508472 = sum of:
        0.03412942 = product of:
          0.10238825 = sum of:
            0.10238825 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.10238825 = score(doc=855,freq=2.0), product of:
                0.21861556 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025786186 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.10238825 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.10238825 = score(doc=855,freq=2.0), product of:
            0.21861556 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025786186 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.42105263 = coord(8/19)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  9. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.08
    0.07501947 = product of:
      0.23756167 = sum of:
        0.012137301 = weight(_text_:web in 4605) [ClassicSimilarity], result of:
          0.012137301 = score(doc=4605,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.14422815 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.012137301 = weight(_text_:web in 4605) [ClassicSimilarity], result of:
          0.012137301 = score(doc=4605,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.14422815 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.033227976 = weight(_text_:semantische in 4605) [ClassicSimilarity], result of:
          0.033227976 = score(doc=4605,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.23863871 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.055783052 = weight(_text_:ontologie in 4605) [ClassicSimilarity], result of:
          0.055783052 = score(doc=4605,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.30920044 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.056892388 = weight(_text_:suche in 4605) [ClassicSimilarity], result of:
          0.056892388 = score(doc=4605,freq=8.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.441602 = fieldWeight in 4605, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.06738364 = weight(_text_:navigieren in 4605) [ClassicSimilarity], result of:
          0.06738364 = score(doc=4605,freq=2.0), product of:
            0.19828427 = queryWeight, product of:
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.025786186 = queryNorm
            0.3398335 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
      0.31578946 = coord(6/19)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  10. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.06
    0.05946476 = product of:
      0.22596608 = sum of:
        0.026013922 = weight(_text_:web in 4658) [ClassicSimilarity], result of:
          0.026013922 = score(doc=4658,freq=12.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3091247 = fieldWeight in 4658, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.026013922 = weight(_text_:web in 4658) [ClassicSimilarity], result of:
          0.026013922 = score(doc=4658,freq=12.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3091247 = fieldWeight in 4658, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.041117527 = weight(_text_:semantische in 4658) [ClassicSimilarity], result of:
          0.041117527 = score(doc=4658,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.29530036 = fieldWeight in 4658, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.09762034 = weight(_text_:ontologie in 4658) [ClassicSimilarity], result of:
          0.09762034 = score(doc=4658,freq=8.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.54110074 = fieldWeight in 4658, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.035200372 = weight(_text_:suche in 4658) [ClassicSimilarity], result of:
          0.035200372 = score(doc=4658,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.2732273 = fieldWeight in 4658, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.2631579 = coord(5/19)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  11. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.05
    0.048743967 = product of:
      0.23153384 = sum of:
        0.04113162 = weight(_text_:web in 4495) [ClassicSimilarity], result of:
          0.04113162 = score(doc=4495,freq=30.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.48876905 = fieldWeight in 4495, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.04113162 = weight(_text_:web in 4495) [ClassicSimilarity], result of:
          0.04113162 = score(doc=4495,freq=30.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.48876905 = fieldWeight in 4495, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.051650263 = weight(_text_:modellierung in 4495) [ClassicSimilarity], result of:
          0.051650263 = score(doc=4495,freq=2.0), product of:
            0.18558519 = queryWeight, product of:
              7.1970778 = idf(docFreq=89, maxDocs=44218)
              0.025786186 = queryNorm
            0.27831027 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1970778 = idf(docFreq=89, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.09762034 = weight(_text_:ontologie in 4495) [ClassicSimilarity], result of:
          0.09762034 = score(doc=4495,freq=8.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.54110074 = fieldWeight in 4495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.21052632 = coord(4/19)
    
    Abstract
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
  12. Schäfer, D.: Konzeption, prototypische Implementierung und Evaluierung eines RDF-basierten Bibliothekskatalogs für Online-Dissertationen (2008) 0.04
    0.04082062 = product of:
      0.19389795 = sum of:
        0.031533636 = weight(_text_:web in 2293) [ClassicSimilarity], result of:
          0.031533636 = score(doc=2293,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.37471575 = fieldWeight in 2293, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.031533636 = weight(_text_:web in 2293) [ClassicSimilarity], result of:
          0.031533636 = score(doc=2293,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.37471575 = fieldWeight in 2293, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.07048718 = weight(_text_:semantische in 2293) [ClassicSimilarity], result of:
          0.07048718 = score(doc=2293,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.50622916 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
        0.06034349 = weight(_text_:suche in 2293) [ClassicSimilarity], result of:
          0.06034349 = score(doc=2293,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.46838963 = fieldWeight in 2293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=2293)
      0.21052632 = coord(4/19)
    
    Abstract
    In dieser Diplomarbeit geht es um die semantische Suche innerhalb bibliothekarischer Metadaten. Die Umsetzung dieses Vorhabens wird ermöglichst durch die Entwicklung in dem Bereich des Semantischen Webs, die durch das W3C Semantic Web Activity vorangetrieben wird. Diese Arbeit basiert auf den Empfehlungen und Arbeitsentwürfen unterschiedlicher Technologien dieser Gruppe, deren Kombination schließlich ein Semantisches Web ermöglicht. Da die Thematik des Semantischen Webs schwer zu greifen ist, werden die Komponenten, die in dieser Arbeit eine Rolle spielen, ausführlich erkäutert. Im Anschluss daran werden die Anforderungen an eine semantische Suche innerhalb bibliothekarischer Metadaten dargestellt, um dann ein Konzept zur Lösung zu erläutern. Die Zielsetzung dieser Arbeit ist die Umsetzung der Konzepte des Semantischen Webs innerhalb einer prototypischen Implementierung mit einem umfangreichen Datensatz. Hier wurden die Metadaten der elektronischen Dissertationen innerhalb der Deutschen Nationalbibliothek zusammen mit Daten eines Klassifikationssystems verwendet.
    Theme
    Semantic Web
  13. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.03
    0.027726589 = product of:
      0.17560174 = sum of:
        0.046991456 = weight(_text_:semantische in 4302) [ClassicSimilarity], result of:
          0.046991456 = score(doc=4302,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.33748612 = fieldWeight in 4302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.040228993 = weight(_text_:suche in 4302) [ClassicSimilarity], result of:
          0.040228993 = score(doc=4302,freq=4.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.31225976 = fieldWeight in 4302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.08838129 = weight(_text_:anwendungsbereich in 4302) [ClassicSimilarity], result of:
          0.08838129 = score(doc=4302,freq=2.0), product of:
            0.22708645 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.025786186 = queryNorm
            0.38919666 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.15789473 = coord(3/19)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Theme
    Semantische Interoperabilität
  14. Aprin, L.: Entwicklung eines semantisch operierenden Risikomanagement-Informationssystems am Beispiel der Europäischen Organisation für Kernforschung (CERN) (2012) 0.03
    0.025966423 = product of:
      0.1233405 = sum of:
        0.017164737 = weight(_text_:web in 2286) [ClassicSimilarity], result of:
          0.017164737 = score(doc=2286,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2039694 = fieldWeight in 2286, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
        0.017164737 = weight(_text_:web in 2286) [ClassicSimilarity], result of:
          0.017164737 = score(doc=2286,freq=4.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2039694 = fieldWeight in 2286, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
        0.033227976 = weight(_text_:semantische in 2286) [ClassicSimilarity], result of:
          0.033227976 = score(doc=2286,freq=2.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.23863871 = fieldWeight in 2286, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
        0.055783052 = weight(_text_:ontologie in 2286) [ClassicSimilarity], result of:
          0.055783052 = score(doc=2286,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.30920044 = fieldWeight in 2286, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
      0.21052632 = coord(4/19)
    
    Abstract
    Unter dem Begriff der Risikoanalyse wird das systematische Bestreben zusammengefasst, die mit Projekten und Handlungen assoziierten Gefahren innerhalb einer Organisation zu erfassen, zu evaluieren und einer Risikoregulierung zugänglich zu machen. Risikoanalysen sind ein integraler Bestandteil des Risikomanagements und damit wesentlich für die Konsolidierung von Sicherheit. Die Adäquatheit und Zuverlässigkeit der risikoanalytisch beförderten Einsichten hängen dabei unmittelbar von der Verfügbarkeit und der Qualität der organisational angebotenen Wissensbestände ab. Der Zugang zu entscheidungsrelevantem Wissen wird in der arbeitsweltlichen Realität allerdings durch das Wirken unterschiedlicher Informationsbarrieren erschwert. Wissen, das dem Verstehen und Vermeiden von Risiken dienlich ist, lagert häufig in sehr spezialisierten Datenbanksystemen, deren individuelle syntaktische und semantische Strukturen eine Verwendung des Wissens in anderen als den ursprünglich mit den Datenbanken verknüpften Anwendungskontexten zu einem sehr zeit- und arbeitsintensiven Unterfangen machen. Auch erschwert ein mit der Semistrukturiertheit vieler Dokumentations- und Berichtssysteme einhergehender Ambiguitätsgrad eine effiziente automatisierte Wissensverarbeitung bspw. im Zusammenhang mit Suchmaschinen.
    Mit dieser Dissertation wird ein Beitrag zur Überwindung der bestehenden Wissensbarrieren im Risikomanagement vorgelegt. Methodisch wird hierzu die Anwendung semantischer Verfahren zur Repräsentation von Wissen auf die Domäne der Risikoanalyse vorgeschlagen. Im Mittelpunkt steht das sogenannte Semantic Web, das als Weiterentwicklung des World Wide Webs die Bedeutung von Wissenszusammenhängen explizit zu erfassen und abzubilden erlaubt. Zeichnet sich das gegenwärtige Risikomanagement durch eine dokumentengebundene Organisation und Distribution von Wissen aus, werden mit dem Semantic Web Verfahren und Werkzeuge vorgelegt, die eine Operationalisierung des Wissens direkt auf der Datensatzebene ermöglichen. Darauf aufbauend wird das Konzept eines semantisch operierenden Risikomanagement-Informationssystems entworfen. Den Kern dieses Entwurfs bildet die Idee, risikoanalytisch relevantes Wissen nicht nach traditionellem Verständnis als textuelle Berichte oder relationale Datenbankeinträge zu speichern, sondern in Form einer stetig wachsenden Ontologie zu dokumentieren. Zur Gewährleistung eines bedarfsgerechten Zugriffs auf das ontologisch archivierte Wissen wurde das Konzept einer Suchmaschine entwickelt, mit der sich für anstehende Arbeitsvorgänge prüfen lässt, ob zu diesen historisch identische oder ähnliche Arbeitsvorgänge dokumentiert sind, die sich zu kritischen Zwischenfällen entfalteten. Den Risikomanagern wird ein Werkzeug bereitgestellt, das entscheidungsrelevantes Wissen sehr präzise und zeitnah abzufragen erlaubt und damit zu einer verbesserten Adäquatheit der risikoanalytischen Einsichten beiträgt.
  15. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.02
    0.02279669 = product of:
      0.10828428 = sum of:
        0.018205952 = weight(_text_:web in 585) [ClassicSimilarity], result of:
          0.018205952 = score(doc=585,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 585, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.018205952 = weight(_text_:web in 585) [ClassicSimilarity], result of:
          0.018205952 = score(doc=585,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.21634221 = fieldWeight in 585, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.021334646 = weight(_text_:suche in 585) [ClassicSimilarity], result of:
          0.021334646 = score(doc=585,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.16560075 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.050537728 = weight(_text_:navigieren in 585) [ClassicSimilarity], result of:
          0.050537728 = score(doc=585,freq=2.0), product of:
            0.19828427 = queryWeight, product of:
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.025786186 = queryNorm
            0.25487512 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.689554 = idf(docFreq=54, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
      0.21052632 = coord(4/19)
    
    Abstract
    Die vorliegende Arbeit versucht, das Thema "Topic Maps" von verschiedenen Perspektiven zu betrachten. "Topic Maps" sind geordnete Wissensnetze. Sie stellen ein Hilfsmittel dar, um sich in der immer größer werdenden Informationsvielfalt zurechtzufinden und beim Navigieren trotz einer möglichen Informationsüberflutung die Übersicht zu behalten. Wie ein Stichwortverzeichnis in einem guten Fachbuch, helfen sie, die genau gesuchte Information zu finden. Die Tatsache, dass elektronische Informationen in größerem Umfang als die Seiten eines Buches vorliegen und auf heterogenen Plattformen gespeichert sind, zieht die Konsequenz mit sich, dass Topic Maps nicht nur aus einer Liste alphabetisch sortierter Stichworte bestehen. Vielmehr werden mit Hilfe von Topic Maps logische Konzepte entworfen, die Wissensnetze semantisch modellieren. In Zusammenhang mit Topic Maps spricht Tim Berner-Lee von der dritten Revolution des Internets. Die XTM-Arbeitsgruppe wirbt sogar mit dem Slogan "Das GPS des Web". So wie eine Landkarte eine schematische Sicht auf eine reale Landschaft ermöglicht und bestimmte Merkmale der Landschaft (z.B. Städte, Straßen, Flüsse) markiert, sind Topic Map in der Lage wichtige Merkmale eines Informationsbestandes festzuhalten und in Bezug zueinander zu setzen. So wie ein GPS-Empfänger die eigene Position auf der Karte feststellt, kann eine Topic Map die Orientierung in einer virtuellen Welt vernetzter Dokumente herstellen. Das klingt etwas exotisch, hat jedoch durchaus praktische und sehr weit gefächerte Anwendungen.
    In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
    Trotz alledem bleibt diese Technik keine graue Theorie. Denn obwohl es spürbare Schwierigkeiten auf dem Weg zur Popularität gibt, wird sie eines Tages das Web beherrschen. Microsoft hat sogar versucht, einige Leute und Entwickler von Topic Maps abzuwerben, was ihr missglückt ist. Dies ist als ein Hinweis zu verstehen, dass diese Technik Interesse bei einigen Herrschern in der Informatikindustrie.
  16. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.02
    0.021620603 = product of:
      0.1369305 = sum of:
        0.024274603 = weight(_text_:web in 3359) [ClassicSimilarity], result of:
          0.024274603 = score(doc=3359,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2884563 = fieldWeight in 3359, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.024274603 = weight(_text_:web in 3359) [ClassicSimilarity], result of:
          0.024274603 = score(doc=3359,freq=8.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.2884563 = fieldWeight in 3359, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.08838129 = weight(_text_:anwendungsbereich in 3359) [ClassicSimilarity], result of:
          0.08838129 = score(doc=3359,freq=2.0), product of:
            0.22708645 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.025786186 = queryNorm
            0.38919666 = fieldWeight in 3359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.15789473 = coord(3/19)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
    Theme
    Semantic Web
  17. Ehlen, D.: Semantic Wiki : Konzeption eines Semantic MediaWiki für das Reallexikon zur Deutschen Kunstgeschichte (2010) 0.02
    0.019691939 = product of:
      0.12471561 = sum of:
        0.02124028 = weight(_text_:web in 3689) [ClassicSimilarity], result of:
          0.02124028 = score(doc=3689,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.25239927 = fieldWeight in 3689, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3689)
        0.02124028 = weight(_text_:web in 3689) [ClassicSimilarity], result of:
          0.02124028 = score(doc=3689,freq=2.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.25239927 = fieldWeight in 3689, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3689)
        0.08223505 = weight(_text_:semantische in 3689) [ClassicSimilarity], result of:
          0.08223505 = score(doc=3689,freq=4.0), product of:
            0.13923967 = queryWeight, product of:
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.025786186 = queryNorm
            0.5906007 = fieldWeight in 3689, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.399778 = idf(docFreq=542, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3689)
      0.15789473 = coord(3/19)
    
    Abstract
    Wikis sind ein geeignetes Mittel zur Umsetzung von umfangreichen Wissenssammlungen wie Lexika oder Enzyklopädien. Bestes Beispiel dafür bildet die weltweit erfolgreiche freie On-line-Enzyklopadie Wikipedia. Jedoch ist es mit konventionellen Wiki-Umgebungen nicht moglich das Potential der gespeicherten Texte vollends auszuschopfen. Eine neue Möglichkeit bieten semantische Wikis, deren Inhalte mithilfe von maschinenlesbaren Annotationen semantische Bezüge erhalten. Die hier vorliegende Bachelorarbeit greift dies auf und überführt Teile des "Reallexikons zur deutschen Kunstgeschichte" in ein semantisches Wiki. Aufgrund einer Semantic MediaWiki-Installation soll uberpruft werden, inwieweit die neue Technik fur die Erschließung des Lexikons genutzt werden kann. Mit einem Beispiel-Wiki für das RdK auf beigefügter CD.
    Theme
    Semantic Web
  18. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.02
    0.019592967 = product of:
      0.124088794 = sum of:
        0.04070975 = weight(_text_:web in 4333) [ClassicSimilarity], result of:
          0.04070975 = score(doc=4333,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.48375595 = fieldWeight in 4333, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.04070975 = weight(_text_:web in 4333) [ClassicSimilarity], result of:
          0.04070975 = score(doc=4333,freq=10.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.48375595 = fieldWeight in 4333, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.042669293 = weight(_text_:suche in 4333) [ClassicSimilarity], result of:
          0.042669293 = score(doc=4333,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.3312015 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.15789473 = coord(3/19)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    Theme
    Semantic Web
  19. Hartmann, S.: Inhaltliche Erschließung einer Call-Center-Datenbank : Konzeptentwicklung für die Kundentelefon-Wissensdatenbank der Deutschen Post AG (KT-WEB 2.0) (2005) 0.02
    0.019477786 = product of:
      0.12335932 = sum of:
        0.036789242 = weight(_text_:web in 3053) [ClassicSimilarity], result of:
          0.036789242 = score(doc=3053,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43716836 = fieldWeight in 3053, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3053)
        0.036789242 = weight(_text_:web in 3053) [ClassicSimilarity], result of:
          0.036789242 = score(doc=3053,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.43716836 = fieldWeight in 3053, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3053)
        0.04978084 = weight(_text_:suche in 3053) [ClassicSimilarity], result of:
          0.04978084 = score(doc=3053,freq=2.0), product of:
            0.12883182 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.025786186 = queryNorm
            0.38640174 = fieldWeight in 3053, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3053)
      0.15789473 = coord(3/19)
    
    Abstract
    Die Qualität der Auskünfte in einem Call-Center des Typus Informationshotline wird gewährleistet durch die zentrale Bereitstellung von Informationen zu Produkten und Dienstleistungen eines Unternehmens. Dies kann in Form von Datenbanken, wie die in dieser Arbeit analysierten Kundentelefon-Wissensdatenbank der Deutschen Post AG (KT-WEB), realisiert werden. Damit die Call-Center-Mitarbeiter präzise, schnell und zuverlässig auf die im Kundengespräch relevanten Informationen zugreifen können, müssen die Informationen inhaltlich entsprechend erschlossen sein. Für KT-WEB wird dazu ein Konzept zur Optimierung der inhaltlichen Erschließung und Suche entwickelt, das über die bisher eingesetzten Erschließungsmethoden, Systematik und Volltexterschließung, hinaus geht: eine Erschließung mit facettierten Schlagwörtern.
  20. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.02
    0.019308137 = product of:
      0.122284874 = sum of:
        0.02627803 = weight(_text_:web in 3742) [ClassicSimilarity], result of:
          0.02627803 = score(doc=3742,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 3742, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.02627803 = weight(_text_:web in 3742) [ClassicSimilarity], result of:
          0.02627803 = score(doc=3742,freq=6.0), product of:
            0.08415349 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.025786186 = queryNorm
            0.3122631 = fieldWeight in 3742, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.069728814 = weight(_text_:ontologie in 3742) [ClassicSimilarity], result of:
          0.069728814 = score(doc=3742,freq=2.0), product of:
            0.18041065 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.025786186 = queryNorm
            0.38650054 = fieldWeight in 3742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.15789473 = coord(3/19)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.

Years

Languages

  • d 119
  • e 26
  • f 2
  • hu 1
  • pt 1
  • More… Less…

Types