Search (2969 results, page 1 of 149)

  • × language_ss:"e"
  • × type_ss:"a"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.18
    0.1838923 = product of:
      0.69879067 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.11665589 = score(doc=2514,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16497634 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16497634 = score(doc=2514,freq=4.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.2631579 = coord(5/19)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.18
    0.17737155 = product of:
      0.6740118 = sum of:
        0.051847067 = product of:
          0.1555412 = sum of:
            0.1555412 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.1555412 = score(doc=230,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.1555412 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1555412 = score(doc=230,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1555412 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1555412 = score(doc=230,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1555412 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1555412 = score(doc=230,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1555412 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1555412 = score(doc=230,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.2631579 = coord(5/19)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.16
    0.1627769 = product of:
      0.5154602 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.11665589 = score(doc=562,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11665589 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11665589 = score(doc=562,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.009951275 = product of:
          0.01990255 = sum of:
            0.01990255 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.01990255 = score(doc=562,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.31578946 = coord(6/19)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  4. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.16
    0.15520012 = product of:
      0.5897604 = sum of:
        0.045366183 = product of:
          0.13609855 = sum of:
            0.13609855 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.13609855 = score(doc=306,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.13609855 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13609855 = score(doc=306,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13609855 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13609855 = score(doc=306,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13609855 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13609855 = score(doc=306,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13609855 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13609855 = score(doc=306,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.2631579 = coord(5/19)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  5. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.13
    0.13302866 = product of:
      0.5055089 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.11665589 = score(doc=2918,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.11665589 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11665589 = score(doc=2918,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.11665589 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11665589 = score(doc=2918,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.11665589 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11665589 = score(doc=2918,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.11665589 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11665589 = score(doc=2918,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.2631579 = coord(5/19)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  6. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.13
    0.13302866 = product of:
      0.5055089 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.11665589 = score(doc=400,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.11665589 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.11665589 = score(doc=400,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.11665589 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.11665589 = score(doc=400,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.11665589 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.11665589 = score(doc=400,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.11665589 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.11665589 = score(doc=400,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.2631579 = coord(5/19)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  7. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.13
    0.13302866 = product of:
      0.5055089 = sum of:
        0.0388853 = product of:
          0.11665589 = sum of:
            0.11665589 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.11665589 = score(doc=862,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11665589 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11665589 = score(doc=862,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.2631579 = coord(5/19)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  8. Malsburg, C. von der: ¬The correlation theory of brain function (1981) 0.11
    0.11085721 = product of:
      0.42125738 = sum of:
        0.032404415 = product of:
          0.097213246 = sum of:
            0.097213246 = weight(_text_:3a in 76) [ClassicSimilarity], result of:
              0.097213246 = score(doc=76,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46834838 = fieldWeight in 76, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=76)
          0.33333334 = coord(1/3)
        0.097213246 = weight(_text_:2f in 76) [ClassicSimilarity], result of:
          0.097213246 = score(doc=76,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.46834838 = fieldWeight in 76, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=76)
        0.097213246 = weight(_text_:2f in 76) [ClassicSimilarity], result of:
          0.097213246 = score(doc=76,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.46834838 = fieldWeight in 76, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=76)
        0.097213246 = weight(_text_:2f in 76) [ClassicSimilarity], result of:
          0.097213246 = score(doc=76,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.46834838 = fieldWeight in 76, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=76)
        0.097213246 = weight(_text_:2f in 76) [ClassicSimilarity], result of:
          0.097213246 = score(doc=76,freq=2.0), product of:
            0.2075661 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024482876 = queryNorm
            0.46834838 = fieldWeight in 76, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=76)
      0.2631579 = coord(5/19)
    
    Source
    http%3A%2F%2Fcogprints.org%2F1380%2F1%2FvdM_correlation.pdf&usg=AOvVaw0g7DvZbQPb2U7dYb49b9v_
  9. Elektronische Publikationen im Literatur- und Informationsangebot wissenschaftlicher Bibliotheken (1995) 0.03
    0.02755078 = product of:
      0.17448828 = sum of:
        0.072389536 = weight(_text_:deutsche in 2367) [ClassicSimilarity], result of:
          0.072389536 = score(doc=2367,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.6261088 = fieldWeight in 2367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=2367)
        0.074480705 = weight(_text_:literatur in 2367) [ClassicSimilarity], result of:
          0.074480705 = score(doc=2367,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.63508785 = fieldWeight in 2367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.09375 = fieldNorm(doc=2367)
        0.027618032 = weight(_text_:und in 2367) [ClassicSimilarity], result of:
          0.027618032 = score(doc=2367,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.5089658 = fieldWeight in 2367, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2367)
      0.15789473 = coord(3/19)
    
    Editor
    Deutsche Forschungsgemeinschaft / Bibliotheksausschuß
    Footnote
    Enthält auch Aussagen zur Formal- und Inhaltserschließung (S.457-458)
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 42(1995) H.5, S.445-463
  10. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.02
    0.017980993 = product of:
      0.085409716 = sum of:
        0.029552903 = weight(_text_:deutsche in 3675) [ClassicSimilarity], result of:
          0.029552903 = score(doc=3675,freq=12.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.25560784 = fieldWeight in 3675, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.01241345 = weight(_text_:literatur in 3675) [ClassicSimilarity], result of:
          0.01241345 = score(doc=3675,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.10584797 = fieldWeight in 3675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.017016599 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.017016599 = score(doc=3675,freq=82.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.31359464 = fieldWeight in 3675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.026426762 = sum of:
          0.014936021 = weight(_text_:allgemein in 3675) [ClassicSimilarity], result of:
            0.014936021 = score(doc=3675,freq=2.0), product of:
              0.12864152 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.024482876 = queryNorm
              0.11610576 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
          0.011490743 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.011490743 = score(doc=3675,freq=6.0), product of:
              0.08573486 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.024482876 = queryNorm
              0.1340265 = fieldWeight in 3675, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
      0.21052632 = coord(4/19)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
  11. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.02
    0.015676513 = product of:
      0.074463435 = sum of:
        0.029552903 = weight(_text_:deutsche in 2789) [ClassicSimilarity], result of:
          0.029552903 = score(doc=2789,freq=12.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.25560784 = fieldWeight in 2789, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.01755527 = weight(_text_:literatur in 2789) [ClassicSimilarity], result of:
          0.01755527 = score(doc=2789,freq=4.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.14969164 = fieldWeight in 2789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.019887256 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.019887256 = score(doc=2789,freq=112.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.0074680103 = product of:
          0.014936021 = sum of:
            0.014936021 = weight(_text_:allgemein in 2789) [ClassicSimilarity], result of:
              0.014936021 = score(doc=2789,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.11610576 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  12. Lazinger, S.S.: To merge or not to merge : Israel's Union List of Monographs in the context of merging algorithms (1994) 0.02
    0.015563422 = product of:
      0.14785251 = sum of:
        0.13624269 = weight(_text_:3101 in 3100) [ClassicSimilarity], result of:
          0.13624269 = score(doc=3100,freq=1.0), product of:
            0.24696976 = queryWeight, product of:
              10.087449 = idf(docFreq=4, maxDocs=44218)
              0.024482876 = queryNorm
            0.5516574 = fieldWeight in 3100, product of:
              1.0 = tf(freq=1.0), with freq of:
                1.0 = termFreq=1.0
              10.087449 = idf(docFreq=4, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3100)
        0.011609821 = product of:
          0.023219641 = sum of:
            0.023219641 = weight(_text_:22 in 3100) [ClassicSimilarity], result of:
              0.023219641 = score(doc=3100,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.2708308 = fieldWeight in 3100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3100)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    22. 2.1999 13:00:54
    3101
  13. Vom Inhaltsverzeichnis bis zur Hörprobe : Nationalbibliothek erweitert Katalogdaten (2007) 0.02
    0.015114438 = product of:
      0.09572478 = sum of:
        0.04265594 = weight(_text_:deutsche in 668) [ClassicSimilarity], result of:
          0.04265594 = score(doc=668,freq=4.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.36893815 = fieldWeight in 668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.031033624 = weight(_text_:literatur in 668) [ClassicSimilarity], result of:
          0.031033624 = score(doc=668,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.26461992 = fieldWeight in 668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.02203521 = weight(_text_:und in 668) [ClassicSimilarity], result of:
          0.02203521 = score(doc=668,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.40608138 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
      0.15789473 = coord(3/19)
    
    Abstract
    Die Kataloginformationen der Deutschen Nationalbibliothek werden für die aktuelle monografische Literatur weiter ausgebaut. Pro Jahr sollen, wie die Einrichtung mitteilt, Inhaltsverzeichnisse von rund 75000 Neuerscheinungen aus dem Verlagsbuchhandel gescannt und zusätzlich zu den Titeldaten im Internet verfügbar gemacht werden. Es ist geplant, noch in diesem Jahr mit der Ergänzung der Katalogdaten zu beginnen.
    Content
    "Darüber hinaus wird die Nutzung von Zusatzinformationen, die von Verlagen elektronisch bereitgestellt werden, optimiert: Inhaltsverzeichnisse, Probekapitel und Hörproben, die über das Verzeichnis lieferbarer Bücher (VLB - ein Produkt der Marketing- und Verlagsservice des Buchhandels GmbH/MVB) abrufbar sind, werden zusätzlich zu den bibliografischen Nachweisen der Deutschen Nationalbibliothek angeboten. Schon seit dem Jahr 2003 bietet die Deutsche Nationalbibliothek in ihren Katalogen und Datendiensten über rein bibliografische Angaben hinausgehende Informationen zu einzelnen Publikationen an. Sie erhält diese Daten von der MVB und gibt sie im Rahmen ihres Neuerscheinungsdienstes weiter. M it dem jetzt geplanten eigenen Anreicherungsservice wird ein neuer Standard der Zusatzinformationen für monografische Publikationen des Verlagsbuchhandels realisiert. Die Deutsche Nationalbibliothek kommt damit dem aktuellen Wunsch von Benutzern und Kunden des Datenservices nach umfassenden Auskünften bei der Buch recherche nach. Urheberrechtliche Fragen der Kataloganreicherung wurden in den vergangenen Monaten in Gesprächen zwischen der Deutschen Nationalbibliothek, dem Börsenverein des Deutschen Buchhandels und dem Deutschen Bibliotheksverband geklärt. Die Nutzung von Titelblatt, Inhalts-, Tabellen-, Abbildungs- und Literaturverzeichnissen sowie von Personen-, Sach- und Ortsregistern wird als unproblematisch angesehen. Auch die Nutzung der Umschlags- und Klappentexte ist möglich. Für die Nutzung von Schutzumschlägen und Zusam- menfassungen wissenschaft- licher Bücher in Bibliothekskatalogen müssen dagegen die Rechte bei den Rechteinhabern eingeholt werden."
  14. Saarti, J.: ¬The analysis of the information process of fiction : a holistic approach to information processing (2003) 0.01
    0.014683751 = product of:
      0.13949564 = sum of:
        0.043447077 = weight(_text_:literatur in 2683) [ClassicSimilarity], result of:
          0.043447077 = score(doc=2683,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 2683, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2683)
        0.09604857 = weight(_text_:literaturwissenschaft in 2683) [ClassicSimilarity], result of:
          0.09604857 = score(doc=2683,freq=2.0), product of:
            0.17437136 = queryWeight, product of:
              7.122176 = idf(docFreq=96, maxDocs=44218)
              0.024482876 = queryNorm
            0.5508277 = fieldWeight in 2683, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.122176 = idf(docFreq=96, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2683)
      0.10526316 = coord(2/19)
    
    Field
    Literaturwissenschaft
    Theme
    Schöne Literatur
  15. Guard, A.: ¬An antidote for browsing : subject headings for fiction (1991) 0.01
    0.013246772 = product of:
      0.12584433 = sum of:
        0.0993076 = weight(_text_:literatur in 1108) [ClassicSimilarity], result of:
          0.0993076 = score(doc=1108,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.84678376 = fieldWeight in 1108, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.125 = fieldNorm(doc=1108)
        0.026536733 = product of:
          0.053073466 = sum of:
            0.053073466 = weight(_text_:22 in 1108) [ClassicSimilarity], result of:
              0.053073466 = score(doc=1108,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.61904186 = fieldWeight in 1108, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=1108)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    5. 8.2006 10:22:00
    Theme
    Schöne Literatur
  16. OCLC/LC fiction headings project : too little, too late? (1992) 0.01
    0.013246772 = product of:
      0.12584433 = sum of:
        0.0993076 = weight(_text_:literatur in 1298) [ClassicSimilarity], result of:
          0.0993076 = score(doc=1298,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.84678376 = fieldWeight in 1298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.125 = fieldNorm(doc=1298)
        0.026536733 = product of:
          0.053073466 = sum of:
            0.053073466 = weight(_text_:22 in 1298) [ClassicSimilarity], result of:
              0.053073466 = score(doc=1298,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.61904186 = fieldWeight in 1298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=1298)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Date
    5. 8.2006 10:22:14
    Theme
    Schöne Literatur
  17. Hörz, H.: Information und Weltanschauung (1984) 0.01
    0.012397869 = product of:
      0.11777975 = sum of:
        0.09651938 = weight(_text_:deutsche in 1347) [ClassicSimilarity], result of:
          0.09651938 = score(doc=1347,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.83481175 = fieldWeight in 1347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.125 = fieldNorm(doc=1347)
        0.02126037 = weight(_text_:und in 1347) [ClassicSimilarity], result of:
          0.02126037 = score(doc=1347,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 1347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=1347)
      0.10526316 = coord(2/19)
    
    Source
    Deutsche Zeitschrift für Philosophie. 32(1984) H.7, S.601-614
  18. Hörz, H.: Widerspiegelung, Kommunikation und Sprache (1981) 0.01
    0.012397869 = product of:
      0.11777975 = sum of:
        0.09651938 = weight(_text_:deutsche in 1348) [ClassicSimilarity], result of:
          0.09651938 = score(doc=1348,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.83481175 = fieldWeight in 1348, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.125 = fieldNorm(doc=1348)
        0.02126037 = weight(_text_:und in 1348) [ClassicSimilarity], result of:
          0.02126037 = score(doc=1348,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 1348, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=1348)
      0.10526316 = coord(2/19)
    
    Source
    Deutsche Zeitschrift für Philosophie. 29(1981) H.7, S.1315-1328
  19. Hermes, H.-J.: AG Dezimalklassifikation (AG DK) 12. März (2003) 0.01
    0.0118725505 = product of:
      0.056394614 = sum of:
        0.015081154 = weight(_text_:deutsche in 1695) [ClassicSimilarity], result of:
          0.015081154 = score(doc=1695,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.13043934 = fieldWeight in 1695, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1695)
        0.021944087 = weight(_text_:literatur in 1695) [ClassicSimilarity], result of:
          0.021944087 = score(doc=1695,freq=4.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.18711455 = fieldWeight in 1695, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1695)
        0.015223008 = weight(_text_:und in 1695) [ClassicSimilarity], result of:
          0.015223008 = score(doc=1695,freq=42.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.280541 = fieldWeight in 1695, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1695)
        0.0041463645 = product of:
          0.008292729 = sum of:
            0.008292729 = weight(_text_:22 in 1695) [ClassicSimilarity], result of:
              0.008292729 = score(doc=1695,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.09672529 = fieldWeight in 1695, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1695)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Content
    "Während im Rahmen der beiden bibliothekarischen Veranstaltungstage am 11. und 12.3.2003 eine Reihe von wichtigen Vorträgen zur Bedeutung und Entwicklung, aber auch zu Kosten bibliothekarischer Sacherschließung gehalten wurden, fand die jährliche Besprechung der AG Dezimalklassifikationen am 12.3. vormittags, also zu Beginn der 27. Jahrestagung der Gesellschaft an der Brandenburgischen Technischen Universität Cottbus statt. Zunächst war erster Redner dieser Besprechung der AG außerordentlicherweise der Vorsitzende der GfKl, Herr Prof. Dr. Opitz. Dieser äußerte dabei den Wunsch der Gesellschaft, die bibliothekarische Arbeit und dementsprechend die Arbeitsgemeinschaft Dezimalklassifikationen auf Dauer in der GfKI integriert zu wissen. Dabei würde er auch eine intensivere Verflechtung mit der Jahrestagung, auch mit ihren gesellschaftlichen Ereignissen begrüßen, um so auch persönliche Kontakte zu fördern bzw. zu ermöglichen. Ebenso wies Prof. Opitz darauf hin, daß jeder AG jährlich auch ein Finanzbeitrag der Gesellschaft zur Organisation von Vorträgen u.ä. zur Verfügung steht. Bei der Besprechung der AG selbst aktualisierten zunächst Herr Dr. Holger Flachmann (ULB Münster) und Herr Dr. Jiri Pika (ETH Zürich) ihre Berichte der Vorjahrestagung (vgl. GfKI Nr. 52 vom November 2002, S. 12). Danach gab Herr Dr. Bernd Lorenz (Bay. BeamtenFachhochschule München) einen kurzen Überblick über wichtige deutsche Literatur zum Projekt DDC Deutsch. Während der Workshop von DDB am 17.1.2001 in Frankfurt/M. die Entwicklung von DDC und UDK sowie die Bedeutung einer Konkordanzarbeit unterstrich (vgl. Dialog mit Bibliotheken 13. 2001, S. 29-31), verweist Magda Heiner-Freiling in ihrem Beitrag "Dewey in der Deutschen Nationalbibliographie" (Bibliotheksdienst 36. 2002, S. 709-715) auch auf die Unterschiede zwischen der derzeitigen Gliederung der DNBSachgruppen und der künftigen Entwicklung gemäß DDC (S. 711 f.). Sie erinnert zu Recht daran, dass "für Aufstellungszwekke von einer Weiterverwendung der bisherigen Klassifikationen im deutschsprachigen Raum auszugehen (ist), im Fall der RVK sogar von einer weiteren Verbreitung" (S. 714). Von einem "Anschluß der deutschen Bibliotheken an die amerikanische DDC" (ZfBB 50, 2003 S. 27) kann somit nicht gesprochen werden. Von grundsätzlicher Bedeutung bleibt weiterhin die Arbeit von Magda Heiner-Freiling "DDC Deutsch 22 formale, terminologische und inhaltliche Aspekte einer deutschen DDCAusgabe" (ZfBB 48. 2001, S. 333-339). Hier seien zehn Aspekte zur DDC-Arbeit herausgegriffen, denen bleibende Bedeutung zu kommt. - Es ist noch keine angemessene Berücksichtigung europäischer Belange erreicht (S. 333) - Die bekannten Terminologieprobleme (S. 336 ff.) sind auch für Bereiche von Pflanzen und Tieren anzuzeigen (S. 339). - Inhaltliche Probleme bestehen, die aber nicht relevant werden, die die meisten Bibliotheken nicht an eine Aufstellung gemäß DDC denken (S. 337). - Dementsprechend ist auch der Umfang einer DDC-Nutzung in den Bibliotheken unklar (S. 334). - Davon hängt die perspektivische Frage nach einem Bedarf an späteren Buchausgaben ab (S. 335). - Große Bedeutung kommt auch der geplanten DDCDatenbank zu (S. 335). Hierzu gibt es inzwischen Vorarbeiten. - Wichtig für die Anwendung wird die unverzichtbare Verzahnung von DDC und SWD (S. 336). - Bedeutend ist auch die Möglichkeit einer Trunkierbarkeit der Notationen (S. 336). - Ebenso ist die Erstellung von Arbeitsanweisungen vorrangig (S.337). - Denkbar große Bedeutung hat die Feststellung und Vorhersage, dass die DDC Deutsch keine "reine" Übersetzung der DDC darstellen wird, sondern zugleich Auslegung, Bearbeitung usw. (S. 335).
    Die Vielfältigkeit dieses Themas war dann Gegenstand des wesentlichen Vortrags von Michael Preuss (FH Köln) "Die DDC übersetzen: ein Werkstattbericht". Es folgte eine umfangreiche Diskussion. Dieses Referat wird veröffentlicht werden und ist daher an dieser Stelle nicht ausführlich dargestellt. Gewiß wird die Thematik in späteren Besprechungen eine wichtige Rolle spielen. Neben der Publikationstätigkeit leistet DDB neben dem Expertenpool und DDC Deutsch seit Januar 2003 durch das (Internet) Informationsforum DDC Deutsch einen wichtigen Beitrag zur Information der Berufsöffentlichkeit. Die mehrfach von DDB vorgebrachte Äußerung "Wünschenswert ist in jedem Fall eine Meinungsbildung und Entscheidungsfindung auf breiter Basis" (hier M. HeinerFreiling: Bibliotheksdienst 36. 2002, S. 715) wurde nicht unerwartet, dafür aber geradezu heftig in einer Inetbib-Diskussion erfüllt, die Ende Januar 2003 etwa zwei Dutzend Äußerungen erbrachte. Neben allgemeinen Fragen wie einheitliche (Fein-) Klassifikation und dem wiederholten Hinweis auf inhaltliche Probleme der DDC wurden hier vorrangig Fragen von Sinn und Nutzen einer DDC-Anwendung angesprochen, aber auch die häufig in ihrer Bedeutung unterschätzten bzw. auch heruntergespielten Probleme von Urheberrecht, Lizenz und Folgekosten, Probleme, denen bisher im deutschen Klassifikationsbereich kaum Relevanz zukam. Weiter ist natürlich bei DDB nachzufragen, inwieweit DDB ihre Aufgabe zur national-bibliographischen Arbeit erfüllen wird, denn Erläuterungen wie "Es werden nicht alle Titel der DNB mit DDC erschlossen, nur international wichtige Literatur" (Chr. Baumann in BuB 54, 2002 S. 75 f.) führen u.a. auch zu der Fragestellung nach Sinn und Begründung einer DDC-Einführung bei der DNB, nach der Relation von Kosten und Ergebnis. Als Diskussionsbasis für die weitere Arbeit der AG listete dann der Vorsitzende B. Lorenz folgende Überlegungen auf: 1. Grundlegend für die Arbeit ist die Feststellung von (auch bisher unbekannten) Nutzern der Dezimalklassifikationen im deutschen Sprachbereich 2. Dementsprechend stellt sich die Frage nach (klassifikationsbezogenen) Kontakten dieser Nutzer untereinander 3. Wie sind Kontakte mit internationalen Gremien (UDCC) im Ablauf bzw. nach Belang einzuordnen? DACH? 4. Gibt es eine Nutzung von klassifikatorischen Fremddaten im Anwenderkreis (direkt bzw. über Verbünde) (mit Statistik dafür)? 5. Wird die DK-Arbeit insbesondere der ETH Zürich genutzt? 6. Besteht (auch inoffizielle) Arbeit am Klassifikationstext durch Anwender? Auch durch bewusste Nichtverwendung offizieller Notationen bzw. vom Text abweichende Anwendungen? Werden Verweisungen berücksichtigt? Welche Bedeutung hat der MRF? 7. In letzter Konsequenz: Verwenden die Anwender die DK? Mit Adaptionen? Oder liegen Lokalsysteme auf dem Hintergrund der DK vor? B. Gibt es Beobachtungen/Notizen zu den Unterschieden zwischen DDC und DK? 9. Besteht Interesse/Möglichkeit an derartiger Arbeit (mögliche Perspektive: Dezimal-Spezialisten auch für DDB)? 10. Wichtig wäre auch Konkordanzarbeit betreffs DDC, DK, RVK, BK (zunächst für Einzelfächer zur methodischen Erprobung) Grundsätzlich zu überprüfen sind die Möglichkeiten dieser Arbeiten in Bezug auf (auch finanzielles) Engagement von Bibliotheken und Mitarbeitern, ebenso Ausbildungs-Stätten und weiteren Interessierten."
  20. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.01
    0.011406649 = product of:
      0.10836317 = sum of:
        0.032404415 = product of:
          0.097213246 = sum of:
            0.097213246 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.097213246 = score(doc=692,freq=2.0), product of:
                0.2075661 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.33333334 = coord(1/3)
        0.07595875 = product of:
          0.1519175 = sum of:
            0.1519175 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.1519175 = score(doc=692,freq=2.0), product of:
                0.25947624 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.024482876 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.

Authors

Types

  • el 63
  • b 32
  • p 1
  • s 1
  • More… Less…

Themes

Classifications