Search (86 results, page 1 of 5)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.61
    0.6144235 = product of:
      1.4336549 = sum of:
        0.08960344 = product of:
          0.2688103 = sum of:
            0.2688103 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.2688103 = score(doc=973,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.2688103 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.2688103 = score(doc=973,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.2688103 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.2688103 = score(doc=973,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.2688103 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.2688103 = score(doc=973,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.2688103 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.2688103 = score(doc=973,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.2688103 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.2688103 = score(doc=973,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.29
    0.29292476 = product of:
      0.6834911 = sum of:
        0.13440515 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13440515 = score(doc=563,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13440515 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13440515 = score(doc=563,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13440515 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13440515 = score(doc=563,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13440515 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13440515 = score(doc=563,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13440515 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13440515 = score(doc=563,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.011465367 = product of:
          0.022930734 = sum of:
            0.022930734 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.022930734 = score(doc=563,freq=2.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  3. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.28
    0.2843399 = product of:
      0.6634598 = sum of:
        0.029867813 = product of:
          0.08960344 = sum of:
            0.08960344 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.08960344 = score(doc=5820,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12671839 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12671839 = score(doc=5820,freq=4.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.42857143 = coord(6/14)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.26
    0.25600982 = product of:
      0.5973562 = sum of:
        0.037334766 = product of:
          0.112004295 = sum of:
            0.112004295 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.112004295 = score(doc=4997,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.112004295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4997,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.112004295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4997,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.112004295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4997,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.112004295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4997,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.112004295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4997,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.42857143 = coord(6/14)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.26
    0.25600982 = product of:
      0.5973562 = sum of:
        0.037334766 = product of:
          0.112004295 = sum of:
            0.112004295 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.112004295 = score(doc=4388,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.112004295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4388,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.112004295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4388,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.112004295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4388,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.112004295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4388,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.112004295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.112004295 = score(doc=4388,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.42857143 = coord(6/14)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.26
    0.25600982 = product of:
      0.5973562 = sum of:
        0.037334766 = product of:
          0.112004295 = sum of:
            0.112004295 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.112004295 = score(doc=855,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.112004295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.112004295 = score(doc=855,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.112004295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.112004295 = score(doc=855,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.112004295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.112004295 = score(doc=855,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.112004295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.112004295 = score(doc=855,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.112004295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.112004295 = score(doc=855,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.42857143 = coord(6/14)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.26
    0.25600982 = product of:
      0.5973562 = sum of:
        0.037334766 = product of:
          0.112004295 = sum of:
            0.112004295 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.112004295 = score(doc=1000,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.112004295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.112004295 = score(doc=1000,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.112004295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.112004295 = score(doc=1000,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.112004295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.112004295 = score(doc=1000,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.112004295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.112004295 = score(doc=1000,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.112004295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.112004295 = score(doc=1000,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.42857143 = coord(6/14)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.20
    0.20480786 = product of:
      0.477885 = sum of:
        0.029867813 = product of:
          0.08960344 = sum of:
            0.08960344 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.08960344 = score(doc=701,freq=2.0), product of:
                0.2391474 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02820796 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08960344 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08960344 = score(doc=701,freq=2.0), product of:
            0.2391474 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02820796 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.01
    0.0120156165 = product of:
      0.084109314 = sum of:
        0.034186658 = weight(_text_:media in 2231) [ClassicSimilarity], result of:
          0.034186658 = score(doc=2231,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.25874978 = fieldWeight in 2231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.049922656 = weight(_text_:daten in 2231) [ClassicSimilarity], result of:
          0.049922656 = score(doc=2231,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.37184164 = fieldWeight in 2231, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.14285715 = coord(2/14)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
    Content
    Masterarbeit, Universität Hildesheim, Institut für Informatik, Bereich Intelligente Informationssysteme. Vgl.: https://www.uni-hildesheim.de/media/fb4/informatik/AG_ESS/Paper/Sauer/Master_thesis_Sauer.pdf.
  10. Frei, R.: Informationswissenschaftliche Begriffe und Kernprozesse aus Sicht des Radikalen Konstruktivismus (2009) 0.01
    0.01191211 = product of:
      0.08338477 = sum of:
        0.04102399 = weight(_text_:media in 3268) [ClassicSimilarity], result of:
          0.04102399 = score(doc=3268,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.31049973 = fieldWeight in 3268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
        0.042360775 = weight(_text_:daten in 3268) [ClassicSimilarity], result of:
          0.042360775 = score(doc=3268,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.31551808 = fieldWeight in 3268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
      0.14285715 = coord(2/14)
    
    Abstract
    Die Informationswissenschaft beruht auf einer positivistisch-ontologischen Sichtweise, welche eine Realität als beschreib- und erfassbar darstellt. In dieser Arbeit werden die Grundbegriffe und exemplarische Kernprozesse der Informationswissenschaft aus Sicht des Radikalen Konstruktivismus betrachtet, einer Erkenntnistheorie, welche besagt, dass der Mensch seine Wirklichkeit nicht passiv erfährt, sondern aktiv konstruiert. Nach einer kurzen Beschreibung der Informationswissenschaft wird zum Radikalen Konstruktivismus übergeleitet und die daraus folgenden Konsequenzen für Verständigung und Wirklichkeit erläutert. Der konventionellen Anschauung von Daten, Information, Wissen, etc. wird dann diese neue Sichtweise entgegengestellt. Darauf aufbauend werden Informationsverhalten, -pathologien und -prozesse vom radikal-konstruktivistischen Standpunkt aus dargestellt. So sollen der Informationswissenschaft ein breiteres Verständnis für ihren Gegenstandsbereich und zusätzliche Kompetenzen vermittelt werden.
    Content
    Diese Publikation entstand im Rahmen einer Diplomarbeit zum Abschluss als dipl. Informations- und Dokumentationsspezialist FH. Referent: Prof. Dr. Norbert Lang, Korreferent: Dr. Rafael Ball. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_34_Frei.pdf.
  11. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.01
    0.008243387 = product of:
      0.11540741 = sum of:
        0.11540741 = weight(_text_:massendaten in 598) [ClassicSimilarity], result of:
          0.11540741 = score(doc=598,freq=2.0), product of:
            0.24275331 = queryWeight, product of:
              8.6058445 = idf(docFreq=21, maxDocs=44218)
              0.02820796 = queryNorm
            0.47541022 = fieldWeight in 598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.6058445 = idf(docFreq=21, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.071428575 = coord(1/14)
    
    Abstract
    Vor dem Hintergrund veränderter Ansprüche der Bibliotheksbenutzer an Recherchemöglichkeiten - weg vom klassischen Online-Katalog hin zum "One-Stop-Shop" mit Funktionalitäten wie thematisches Browsing, Relevanzranking und dergleichen mehr - einerseits und der notwendigen Bearbeitung von Massendaten (Stichwort Dokumentenflut) andererseits rücken Systeme zur automatischen Indexierung wieder verstärkt in den Mittelpunkt des Interesses. Da in Österreich die Beschäftigung mit diesem Thema im Bibliotheksbereich bislang nur sehr selektiv, bezogen auf wenige konkrete Projekte, erfolgte, wird zuerst ein allgemeiner theoretischer Überblick über die unterschiedlichen Verfahrensansätze der automatischen Indexierung geboten. Im nächsten Schritt werden mit der IDX-basierten Indexierungssoftware MILOS (mit den Teilprojekten MILOS I, MILOS II und KASCADE) und dem modularen System intelligentCAPTURE (mit der integrierten Indexierungssoftware AUTINDEX) die bis vor wenigen Jahren im deutschsprachigen Raum einzigen im Praxiseinsatz befindlichen automatischen Indexierungssysteme vorgestellt. Mit zunehmender Notwendigkeit, neue Wege der inhaltlichen Erschließung zu beschreiten, wurden in den vergangenen 5 - 6 Jahren zahlreiche Softwareentwicklungen auf ihre Einsatzmöglichkeit im Bibliotheksbereich hin getestet. Stellvertretend für diese in Entwicklung befindlichen Systeme zur automatischen inhaltlichen Erschließung wird das Projekt PETRUS, welches in den Jahren 2009 - 2011 an der DNB durchgeführt wurde und die Komponenten PICA Match&Merge sowie die Extraction Platform der Firma Averbis beinhaltet, vorgestellt.
  12. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.01
    0.006407874 = product of:
      0.044855118 = sum of:
        0.035300646 = weight(_text_:daten in 595) [ClassicSimilarity], result of:
          0.035300646 = score(doc=595,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.26293173 = fieldWeight in 595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=595)
        0.009554473 = product of:
          0.019108946 = sum of:
            0.019108946 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
              0.019108946 = score(doc=595,freq=2.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.19345059 = fieldWeight in 595, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=595)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22
  13. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.01
    0.005638189 = product of:
      0.07893465 = sum of:
        0.07893465 = weight(_text_:daten in 3742) [ClassicSimilarity], result of:
          0.07893465 = score(doc=3742,freq=10.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.58793324 = fieldWeight in 3742, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.071428575 = coord(1/14)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  14. Müller, C.: Allegro im World Wide Web : Programierung eines Interfaces (1997) 0.01
    0.0050429497 = product of:
      0.07060129 = sum of:
        0.07060129 = weight(_text_:daten in 1486) [ClassicSimilarity], result of:
          0.07060129 = score(doc=1486,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.52586347 = fieldWeight in 1486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=1486)
      0.071428575 = coord(1/14)
    
    Abstract
    Bibliotheken stellen in globalen Computernetzwerken ihre Bibliothekskataloge zur Verfügung. Damit Kataloge online recherchierbar sind, müssen Schnittstellen für die Datenbanken erstellt werden. Die Entwicklung eines Gateways für eine allegro-Datenbank wird beschrieben, und es wird exemplarisch an den Daten des Hamburger Verbundkataloges gezeigt, wie die Planung und die Programmierung einer Schnittstelle aussehen kann
  15. Schöne, B.: Geographische Informationssysteme : Aufbau und Einsatzmöglichkeiten am Beispiel der Umweltbehörde Hamburg (1997) 0.01
    0.0050429497 = product of:
      0.07060129 = sum of:
        0.07060129 = weight(_text_:daten in 1493) [ClassicSimilarity], result of:
          0.07060129 = score(doc=1493,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.52586347 = fieldWeight in 1493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=1493)
      0.071428575 = coord(1/14)
    
    Abstract
    Am Beispiel der Umweltbehörde Hamburg und ihrem Umweltinformationssystem HUIS wird ein Einblick in die Voraussetzungen, Ziele und Anwendungsmöglichkeiten raumbezogener Informationssysteme gegeben. Durch das dort eingesetzte geographische Informationssystem ArcInfo werden räumliche Daten mit Sachdaten verknüft und thematisch dargestellt
  16. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.00
    0.0049922653 = product of:
      0.06989171 = sum of:
        0.06989171 = weight(_text_:daten in 2221) [ClassicSimilarity], result of:
          0.06989171 = score(doc=2221,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.52057827 = fieldWeight in 2221, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
      0.071428575 = coord(1/14)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.
  17. Siever, C.M.: Multimodale Kommunikation im Social Web : Forschungsansätze und Analysen zu Text-Bild-Relationen (2015) 0.00
    0.0048838085 = product of:
      0.068373315 = sum of:
        0.068373315 = weight(_text_:media in 4056) [ClassicSimilarity], result of:
          0.068373315 = score(doc=4056,freq=8.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.51749957 = fieldWeight in 4056, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4056)
      0.071428575 = coord(1/14)
    
    RSWK
    Massenkommunikation / Multimodalität / Social Media (BVB)
    Social Media / Multimodalität / Kommunikation / Social Tagging (DNB)
    Subject
    Massenkommunikation / Multimodalität / Social Media (BVB)
    Social Media / Multimodalität / Kommunikation / Social Tagging (DNB)
  18. Lülsdorf, L.: FRBRisierung : Konzeption und Beispiel für eine Realisierung mit MAB2-Daten (2008) 0.00
    0.0043673227 = product of:
      0.061142515 = sum of:
        0.061142515 = weight(_text_:daten in 2613) [ClassicSimilarity], result of:
          0.061142515 = score(doc=2613,freq=6.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.45541114 = fieldWeight in 2613, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2613)
      0.071428575 = coord(1/14)
    
    Abstract
    In der Diplomarbeit wird zu Anfang das FRBR-Modell vorgestellt und erläutert sowie dessen Rezeption in der internationalen sowie deutschen Fachwelt untersucht. Anschließend wird der Vorgang der FRBRisierung definiert und erklärt. Anhand von konkreten Beispielen aus der Praxis wird die Realisierbarkeit der FRBRisierung aufgezeigt und deren Vorteile illustriert. Abschließend wird ein mit MAB2-Daten durchgeführtes FRBRisierungsexperiment präsentiert, erörtert, analysiert und bewertet. Die vorliegende Arbeit gliedert sich auf in einen theoretischen Teil (Kapitel 2 und 3) und einen praktischen Teil (Kapitel 4). Der theoretische Teil soll in kompakter Form an das konzeptionelle Modell der FRBR heranführen und des Weiteren aufzeigen, dass es nicht "nur" ein theoretisches Modell darstellt, sondern die praktische Umsetzung und Implementierung durchaus möglich ist und großen Mehrwert, sowohl für Bibliotheken selbst, als auch deren Nutzer, besitzt. Der praktische Teil soll einen möglichen Ansatz der FRBRisierung von MAB2-Daten vorstellen. Das Experiment soll dabei kein für den praktischen Einsatz fertiges Endergebnis liefern. Es sollen die Entitäten Werk, Expression und Manifestation, die das zentrale Element des Modells darstellen, in MAB2-Datensätzen identifiziert und extrahiert werden. Die Ergebnisse des Experimentes können als Grundlage für ähnliche und fortführende FRBRisierungsexperimente dienen. Die entwickelten XSL-Stylesheets zur Generierung von Werke.xml-, Expressionen.xml- und Manifestationen.xml-Dateien sind der vorliegenden Arbeit im Anhang in gekürzter Fassung für eine Nachnutzung und Modifikation beigefügt.
  19. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.00
    0.004279085 = product of:
      0.059907187 = sum of:
        0.059907187 = weight(_text_:daten in 558) [ClassicSimilarity], result of:
          0.059907187 = score(doc=558,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.44620997 = fieldWeight in 558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.071428575 = coord(1/14)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  20. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.00
    0.004279085 = product of:
      0.059907187 = sum of:
        0.059907187 = weight(_text_:daten in 2222) [ClassicSimilarity], result of:
          0.059907187 = score(doc=2222,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.44620997 = fieldWeight in 2222, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=2222)
      0.071428575 = coord(1/14)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.

Languages

  • d 73
  • e 11
  • a 1
  • hu 1
  • More… Less…

Types